{"id":282,"date":"2014-05-16T10:17:37","date_gmt":"2014-05-16T08:17:37","guid":{"rendered":"http:\/\/www.met-aal.it\/?page_id=282"},"modified":"2014-06-04T15:29:22","modified_gmt":"2014-06-04T13:29:22","slug":"modulo-di-rilevamento-caduta","status":"publish","type":"page","link":"https:\/\/www.met-aal.it\/?page_id=282","title":{"rendered":"Modulo di Rilevamento Caduta"},"content":{"rendered":"<p style=\"text-align: justify;\">La Piattaforma Met-AAL integra due sistemi di rilevamento caduta: il primo utilizza il sensore Microsoft Kinect ed \u00e8 stato sviluppato dall&#8217;azienda AMT Services s.r.l. in collaborazione con il gruppo di ricerca del DEI &#8211; Politecnico di Bari; il secondo sistema \u00e8 stato sviluppato dal Consiglio Nazionale delle Ricerche CNR &#8211; IMM. I due sistemi formano il modulo di rilevamento caduta della Piattaforma Met-AAL e il funzionamento contemporaneo dei due rende il modulo molto affidabile e accurato.<\/p>\n<p style=\"text-align: justify;\">La scelta di utilizzare il sensore MS Kinect \u00e8 da ricercarsi nel suo buon rapporto qualit\u00e0\/prezzo, considerando nella qualit\u00e0 gli aspetti legati alla risoluzione, precisione nella misura e range di azione, nonch\u00e9 accessibilit\u00e0 ai flussi 2D e 3D e grande fermento nello sviluppo e supporto di applicazioni in ambito di ricerca e non solo.<\/p>\n<p style=\"text-align: justify;\">Il Kinect ha una serie di sensori collegati su una barra orizzontale ancorata ad una base per mezzo di un perno motore; inoltre il sensore \u00e8 abilitato al movimento grazie ad un motore che gli permette di ruotare lungo l\u2019asse verticale. In particolare Kinect raccoglie due tipi di informazioni importanti: mappe di profondit\u00e0 e immagini a colori.<\/p>\n<p style=\"text-align: justify;\"><span style=\"line-height: 1.5em;\">Sulla barra metallica sono montati gli occhi del dispositivo: telecamera RGB, sensore di profondit\u00e0 a raggi infrarossi composto da un proiettore a infrarossi e da una telecamera sensibile alla stessa banda. La telecamera RGB ha una risoluzione di 640 x 480 pixel, mentre quella a infrarossi una matrice di 320 x 240 pixel. Tra la telecamera RGB e il proiettore IR \u00e8 situato anche un piccolo LED di stato.<\/span><\/p>\n<p style=\"text-align: center;\"><a href=\"http:\/\/www.met-aal.it\/wp-content\/uploads\/2014\/05\/kinect.png\"><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter size-full wp-image-283\" title=\"Sensore MS Kinect\" alt=\"Sensore MS Kinect\" src=\"http:\/\/www.met-aal.it\/wp-content\/uploads\/2014\/05\/kinect.png\" width=\"366\" height=\"249\" srcset=\"https:\/\/www.met-aal.it\/wp-content\/uploads\/2014\/05\/kinect.png 366w, https:\/\/www.met-aal.it\/wp-content\/uploads\/2014\/05\/kinect-300x204.png 300w\" sizes=\"(max-width: 366px) 100vw, 366px\" \/><\/a><\/p>\n<p style=\"text-align: justify;\">Per quanto concerne il rilevamento della caduta, \u00e8 stato sviluppato un algoritmo in grado di rilevare delle caratteristiche robuste (features) dell\u2019evento suddetto, da estrarre a partire dalla nuvola di punti acquisita dal sensore.<\/p>\n<p style=\"text-align: justify;\">Sperimentalmente il sensore riesce ad acquisire, nonostante i cali di performance nella precisione, dati anche oltre il limite consigliato dalla Microsoft (3,5 m).<\/p>\n<p style=\"text-align: justify;\">Il sistema \u00e8 stato progettato in maniera modulare per garantire le massime prestazioni in termini di affidabilit\u00e0, robustezza e integrazione con altri sistemi; inoltre \u00e8 stato dimensionato affinch\u00e9 gli algoritmi implementati presentino prestazioni real-time e costi computazionali bassi.<\/p>\n<p style=\"text-align: justify;\">Sulla base delle specifiche dell\u2019ambiente, viene individuata la zona ottimale dove andare a posizionare il sensore, per ottenere le massime performance di acquisizione, ridurre al minimo i disturbi e dimensionare l\u2019area in cui l\u2019utente resta nel campo d\u2019azione del sensore minimizzando le zone d\u2019ombra dalla telecamera.<\/p>\n<p style=\"text-align: justify;\">Per rispondere adeguatamente alle specifiche funzionali di cui sopra, il sistema \u00e8 stato strutturato sulla base di un\u2019architettura costituita dei seguenti quattro moduli algoritmici:<\/p>\n<ol>\n<li>segmentazione del soggetto ed eliminazione del background;<\/li>\n<li>individuazione e inseguimento (tracking) del soggetto;<\/li>\n<li>estrazione di features di interesse;<\/li>\n<li>riconoscimento degli eventi di caduta.<\/li>\n<\/ol>\n<p>&nbsp;<\/p>\n<p style=\"text-align: justify;\">La fase di test \u00e8 stato effettuata in modalit\u00e0 offline, sulla base di sessanta video registrati da dieci persone differenti, in scenari simili ad ambienti domestici, riscontrando un livello di accuratezza pari all&#8217; 85%.<\/p>\n<p style=\"text-align: justify;\"><span style=\"line-height: 1.5em;\">Ci\u00f2 dimostra le buone performance avute in fase di testing dall\u2019algoritmo, in aggiunta al fatto che scene di vita quotidiana (chinarsi, sedersi, stendersi), non vengono ricondotti a casi specifici di falsi positivi.<\/span><\/p>\n<p style=\"text-align: justify;\">Il secondo sistema (quello sviluppato dal CNR), propone un nodo ambientale \u201csmart\u201d integrante un dispositivo metrologico Time-Of-Flight (TOF) commerciale e un sistema embedded che si occuper\u00e0 delle attivit\u00e0 di reasoning opportunamente implementate (rispettose delle esigenze di privacy) necessarie a comunicare alla piattaforma MET-AAL informazioni di alto livello allorquando \u00e8 presente l\u2019evento di caduta.<\/p>\n<p style=\"text-align: justify;\">La decisione circa l\u2019uso di dispositivi TOF nel progetto \u00e8 motivata dalla intrinseca capacit\u00e0 di rappresentazione tridimensionale di una scena indoor mediante rilevazione di nuvole di punti pi\u00f9 o meno dense. Rispetto ai pi\u00f9 tradizionali sistemi passivi (anche in configurazione stereoscopica per il recupero delle informazioni di profondit\u00e0), evidenti sono i vantaggi nell\u2019uso delle soluzioni TOF o similari dal momento che:<\/p>\n<ul style=\"text-align: justify;\">\n<li>Le prestazioni metrologiche sono scarsamente influenzate dalle condizioni di illuminazione della scena;<\/li>\n<li>Le prestazioni metrologiche non dipendono dalle caratteristiche cromatiche e tessiturali della scena;<\/li>\n<li>\u00a0I dispositivi sono decisamente compatti (la misurazione di oggetti di grandi dimensioni non richiede baseline di lunghezza elevata come nel caso della stereoscopia) e silenziosi (e quindi adatti all\u2019uso domestico-residenziale);<\/li>\n<li>L\u2019elaborazione delle nuvole di punti richiede un carico computazionale inferiore rispetto ai sistemi passivi (potendo quindi ricorrere a soluzioni di computing low-power);<\/li>\n<li>L\u2019analisi di mappe di profondit\u00e0 consente il rispetto della privacy dei soggetti monitorati (non \u00e8 possibile evincere l\u2019identit\u00e0 del soggetto).<\/li>\n<\/ul>\n<p style=\"text-align: justify;\">Il nodo sensoriale, giacch\u00e9 fisicamente costituito da pi\u00f9 elementi, avr\u00e0 una connotazione \u201catomica\u201d all\u2019interno della piattaforma, presenter\u00e0 un funzionamento completamente automatico (del tipo Plug&amp;Play) e comunicher\u00e0 con la piattaforma, secondo meccanismi asincroni di messaging opportunamente progettati.<\/p>\n<p style=\"text-align: center;\" align=\"center\"><a href=\"http:\/\/www.met-aal.it\/wp-content\/uploads\/2014\/05\/caduta_cnr1.png\"><img decoding=\"async\" loading=\"lazy\" class=\"aligncenter size-medium wp-image-536\" title=\"Hardware Sistema di Rilevamento Caduta - CNR\" alt=\"Hardware Sistema di Rilevamento Caduta - CNR\" src=\"http:\/\/www.met-aal.it\/wp-content\/uploads\/2014\/05\/caduta_cnr1-300x280.png\" width=\"300\" height=\"280\" srcset=\"https:\/\/www.met-aal.it\/wp-content\/uploads\/2014\/05\/caduta_cnr1-300x280.png 300w, https:\/\/www.met-aal.it\/wp-content\/uploads\/2014\/05\/caduta_cnr1.png 688w\" sizes=\"(max-width: 300px) 100vw, 300px\" \/><\/a><\/p>\n<p>&nbsp;<\/p>\n<p style=\"text-align: justify;\">Sulla scorta dell\u2019analisi condotta e sulla base del contesto applicativo considerato, si \u00e8 scelto il sensore MESA SR-4000 dalle dimensioni estremamente compatte (65x65x68 mm), noiseless (0-dB) e in grado di garantire prestazioni stabili in qualsiasi condizione di funzionamento indoor con un drift di misura comunque trascurabile al variare della temperatura ambientale (inferiore a 1.5 mm nel range 10\u00b0C-50\u00b0C). Il dispositivo nella sua declinazione \u201cWide FOV\u201d (69\u00b0\u00d756\u00b0) \u201cFar Distance\u201d (0.1 m \u2013 10.0 m) in configurazione di tipo \u201ca parete\u201d consente l\u2019acquisizione di ambienti domestici anche di medie\/grandi dimensioni.<\/p>\n<p style=\"text-align: justify;\">Il posizionamento ottimale del sensore 3D nel monitoraggio di ambienti domestici prevede, infatti, un montaggio in configurazione \u201ca parete\u201d in prossimit\u00e0 del soffitto (a circa 2.4 m), al fine di garantire un campo di vista quanto pi\u00f9 possibile ampio e libero dagli ostacoli comunemente presenti in un ambiente domestico (quali sedie, tavoli, piante, divani, ecc.), prevenendo al contempo il possibile spostamento del sensore in seguito ad urti accidentali.<\/p>\n<p style=\"text-align: justify;\">Per quanto riguarda il nodo di elaborazione facente capo al sensore 3D (o ai sensori 3D nel caso sia richiesto il monitoraggio di pi\u00f9 ambienti), \u00e8 stata considerata una soluzione di computing a basso costo, basso consumo energetico e noiseless (in quanto fanless) basata su architettura multi-thread Intel ATOM\u00ae (D525 o i pi\u00f9 recenti D2600\/D2800) che soddisfa le previste esigenze computazionali ed esibisce dimensioni compatte, che ne consentono l\u2019installazione su staffa modulo DIN per una perfetta integrazione con le ulteriori tecnologie previste dal progetto ovvero gli impianti tecnologici\/domotici eventualmente gi\u00e0 esistenti nell\u2019abitazione.<\/p>\n<p>Di seguito vi proponiamo un video dimostrativo di simulazione di una caduta.<\/p>\n<p align=\"center\"><iframe loading=\"lazy\" src=\"\/\/www.youtube.com\/embed\/lRzFz4J74bc\" height=\"480\" width=\"640\" allowfullscreen=\"\" frameborder=\"0\"><\/iframe><\/p>\n<p>Potete visionare tutti i video dimostrativi sul nostro <strong><a href=\"https:\/\/www.youtube.com\/channel\/UCMIk8m0ZOZD8mpXqqNpJDww\" target=\"_blank\">canale YouTube<\/a><\/strong>.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>La Piattaforma Met-AAL integra due sistemi di rilevamento caduta: il primo utilizza il sensore Microsoft Kinect ed \u00e8 stato sviluppato dall&#8217;azienda AMT Services s.r.l. in collaborazione con il gruppo di ricerca del DEI &#8211; Politecnico di Bari; il secondo sistema \u00e8 stato sviluppato dal Consiglio Nazionale delle Ricerche CNR &#8211; IMM. I due sistemi formano [&#8230;] <a class=\"read-more\" href=\"https:\/\/www.met-aal.it\/?page_id=282\">Read More <i class=\"icon-double-angle-right\"><\/i><\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"parent":0,"menu_order":0,"comment_status":"open","ping_status":"closed","template":"","meta":[],"_links":{"self":[{"href":"https:\/\/www.met-aal.it\/index.php?rest_route=\/wp\/v2\/pages\/282"}],"collection":[{"href":"https:\/\/www.met-aal.it\/index.php?rest_route=\/wp\/v2\/pages"}],"about":[{"href":"https:\/\/www.met-aal.it\/index.php?rest_route=\/wp\/v2\/types\/page"}],"author":[{"embeddable":true,"href":"https:\/\/www.met-aal.it\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/www.met-aal.it\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=282"}],"version-history":[{"count":14,"href":"https:\/\/www.met-aal.it\/index.php?rest_route=\/wp\/v2\/pages\/282\/revisions"}],"predecessor-version":[{"id":600,"href":"https:\/\/www.met-aal.it\/index.php?rest_route=\/wp\/v2\/pages\/282\/revisions\/600"}],"wp:attachment":[{"href":"https:\/\/www.met-aal.it\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=282"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}