Assegnista

Laura Romeo (B.E. 2017, M.S. 2019) è un'Ingegnere dell'Automazione presso il Consiglio Nazionale delle Ricerche (CNR), presso l'Istituto di Tecnologie Industriali Intelligenti e Sistemi per il Manifatturiero Avanzato (STIIMA). Ha conseguito la laurea triennale in Ingegneria Informatica e dell'Automazione nel 2017, e ha conseguito, con lode, la laurea magistrale in Ingegneria dell'Automazione nel 2019, entrambe presso il Politecnico di Bari. Ha svolto il tirocinio di tesi magistrale presso il CNR da marzo a luglio 2019, ha discusso la tesi di Laurea Magistrale dal titolo "Progettazione e sperimentazione di un sistema robotico per l'installazione automatica di una rete Internet of Things in scenari outdoor". Nell'ottobre 2019 ha vinto un concorso come Assegnista di Ricerca presso l'Istituto di Tecnologie e Sistemi Industriali Intelligenti per il Manifatturiero Avanzato del Consiglio Nazionale delle Ricerche. Fa parte del gruppo Intelligent, Sensing and Perception (ISP), all'interno del quale è stata coinvolta in diversi progetti e lavori scientifici riguardanti la computer vision, l'intelligenza artificiale e l'implementazione di sistemi robotici tramite ROS. A novembre 2020 ha vinto il concorso per seguire il Corso di Dottorato in Industria 4.0 presso il Politecnico di Bari, con una tesi dal titolo "IMPACT: vIsion devices and systems for Monitoring the wellbeing of oPerators in a workspAce shared with Cobots in indusTry 4.0". Il progetto di ricerca IMPACT mira ad analizzare l'aspetto cognitivo e il benessere degli operatori nelle imprese che, seguendo i paradigmi dettati dall'Industria 4.0, adottano robot collaborativi nelle loro linee di produzione. Vengono studiati i dispositivi e i sistemi intelligenti per il monitoring dei movimenti e delle interazioni tra operatori e cobot. In generale, lo studio di tali sistemi è finalizzato a realizzare ambienti di lavoro confortevoli, adattabili alle esigenze e alle capacità delle singole persone, aumentando il benessere degli operatori in un concetto di fabbrica human-centered. Il progetto si focalizza anche sul possibile monitoraggio di operatori affetti da disabilità fisiche e/o cognitive, il cui supporto di dispositivi idonei per le interazioni uomo-macchina può risultare fondamentale per un più facile inserimento in contesti di robotica collaborativa. Parallelamente al Ph.D., lavora presso l'Istituto CNR-STIIMA come Assegnista di Ricerca al progetto europeo "MINDBOT", insieme ad altri progetti nazionali e internazionali.

Summary of research activities: L’attività svolta riguarda progetti, nazionali e internazionali, incentrati principalmente sulla comprensione e l’elaborazione di immagini, video e point cloud. Sono state effettuate campagne di acquisizione dati attraverso sistemi multimodali e tali dati sono stati utilizzati per l’estrazione di informazioni RGB, Depth e per la creazione di nuvole di punti. Implementazione di algoritmi di machine learning e deep learning da trainare sui dati estratti, in modo da realizzare sistemi autonomi in grado di svolgere predizioni, classificazioni e diagnostica. Sono stati seguiti progetti nell’ambito del human monitoring, sia industriale che domestico, e della smart agriculture.

- Realizzazione di un setup di telecamere RGB-D per la modellazione 3D di una cella di lavoro, in cui l’operatore lavora a stretto contatto con un robot collaborativo. Calibrazione di tali telecamere, in modo da elaborare dati multimodali su un unico sistema di riferimento. Implementazione di diversi modelli di deep learning per la segmentazione delle azioni svolte dagli operatori durante un’attività di assemblaggio, con l’obiettivo di dare queste informazioni al robot collaborativo. Lo scopo è che quest’ultimo possa adeguarsi completamente all’operatore, focalizzandosi quindi sul benessere fisico e cognitivo dell’essere umano, compatibilmente con i lavori uomo-macchina tipici dell’industria 4.0.
- Sviluppo di un sistema di deep learning per il riconoscimento dell’eventuale rischio caduta di pazienti affetti da malattie neurodegenerative. Il modello di deep learning è stato addestrato utilizzando features estratte da dati video, composti da pazienti impegnati a svolgere specifici esercizi, seguiti dalla fisioterapista. Tali features contengono un sistema di rappresentazione dell’individuo secondo un gruppo di punti semplificati, definito skeleton, che permette l’identificazione e il tracking di articolazioni quali spalle, ginocchia, gomiti e mani.
- Definizione di specifiche di strumenti RGB-D per acquisizione di immagini naturali, focalizzando lo studio sulla segmentazione semantica di varie tipologie di uva nei vigneti, integrando informazioni RGB e Depth. Sono stati realizzati metodi per la segmentazione semantica di ogni singola foglia, con l’obiettivo di calcolarne la superficie.

Research interests: Deep Learning, Machine Learning, Computer Vision, Robotics

Degree: PhD Student in Industry 4.0