https://frosthead.com

A protetikai végtag „látja”, amit megragad a felhasználó

Ha megragad valamit, a kezed a legtöbb munkát elvégzi. Az agyad csak azt mondja: "menj, ne aggódj amiatt, hogy mi történik." De még a legfejlettebb protetikumokkal is ez a fellépés sokkal több szándékot igényel. Ennek eredményeként sok beteg elhagyja a legkorszerűbb végtagjait.

kapcsolodo tartalom

  • Hogyan segíthet az idegrendszeri hackelés az amputátumok megalapozatlan megtörését?
  • A protézis megszerzése egyszerű, összehasonlítva azzal, hogy megtegye azt, amit akar

A modern protetika elektromos jelek formájában kap parancsokat azoktól az izmoktól, amelyekhez kapcsolódnak. De még a legjobb protetikumok sem csinálnak sokat. A felhasználóknak hosszú edzési periódust kell igénybe venniük a végtaghoz. Gyakran csak korlátozott módon mozoghatnak, és a felhasználóknak manuálisan kell váltaniuk a markolatok között a különféle feladatok elvégzéséhez - mondjuk, hogy az ajtót kinyitják a csipettel szemben, és elfordítják a kulcsot. Mindent egybevetve azt jelenti, hogy a kéz nem működik tökéletesen az agyal.

Az egyik eszköz, amely segíthet a probléma megoldásában, a számítógépes látás. A Newcastle University kutatói webkamerát helyeztek a protézis kezére, csatlakoztatták egy mélyen tanuló ideghálózathoz, és az eszközöket két amputátumnak adták, akiknek karjait a csukló fölött, de a könyök alatt amputálták. A számítógép a fényképezőgép segítségével látta, hogy mit ér el a felhasználó, és automatikusan beállítja a protézis fogását.

Az eredmények eddig ígéretesek voltak. A Journal of Neural Engineering egyik cikkében a Newcastle-i csapat arról számolt be, hogy a felhasználók 80% feletti sikert mutatnak az objektumok felvétele és mozgatása során.

"Ha ezt javíthatjuk, és száz százalékban megszerezhetjük, sokkal megbízhatóbb lenne a kezét amputálni." - mondja Ghazal Ghazaei, a Newcastle-i doktori hallgató és a cikk vezető szerzője. "Ha ez lesz a valós életben használva, hibának kell lennie. ”

Maga az eszköz egy polcon kívüli protézis volt, amelyet i-végtag ultra-nek hívtak, és a webkamera alacsony felbontású, olcsó Logitech Quickcam Chat volt. Az igazi újítás az volt, hogy Ghazaei csapata egy számítógépes tanulási rendszert dolgozott ki a webkamera információinak felhasználására.

A szoftver felismeri az emelendő tárgy alakú mintákat, és kategóriákba sorolja azokat a tapadásuk alapján, amelyre hatékonyan megragadhatja őket. A számítógép megtanításához ezt a technikát Ghazaei mindegyik 72 képet adott, 5 fokos lépésekben, 500 tárgyból. A szoftver kiszűri az objektumokat jellemzőik alapján, és próba-és hibaelhárítás útján megtanulja, hogy mely kategóriákba tartozik.

Ezután, amikor a protézist tárgyakkal látják el, a hálózat az alacsony felbontású képet széles, elvont alakja alapján osztályozza. Nem feltétlenül kell valami, amit a rendszer látott - az objektum általános alakja elegendő ahhoz, hogy megmondja a kezének, hogy milyen markolatot kell használni. Ghazaei és a csapat négy fogástípust használtak, köztük csipet (két ujj), állványt (három ujjheggyel), semleges palmárt (például egy kávéscsésze megragadása) és egy prófált palmárt (ahol a tenyér lefelé néz).

A számítógépes látást már korábban is használták a robot kezekben, mind a protetikumokban, mind az ipari robotokban. De ezek az erőfeszítések vagy standard méretű és alakú objektumokat érintettek, mint például a gyártási környezetben, vagy lassabb algoritmusokat. A Newcastle-ben kifejlesztett rendszer elég gyorsan képes volt átmenni ezen a folyamaton, hogy az objektumokat 450 mikrosekundumban, vagyis körülbelül másodperc körülbelül 1/2000 th- os sorrendben osztályozhassa. "A fő különbség az, hogy mennyi idő szükséges ahhoz, hogy megértsük és elvégezzük a feladatot" - mondja Ghazaei. Néhányuknak körülbelül négy másodpercig tart, és másoknak több pillanatfelvételre van szükségük. Számunkra ez csak egy pillanatkép és nagyon gyors. ”

Ennek a technológiának a hatásai messze meghaladják a háztartási cikkek begyűjtését. A képalkotó rendszerek segítenek a protetikus lábak megismerésében, hogy messze vannak a földtől, és például ennek megfelelően állíthatók be. Ami mindkét eset közös, egy robotrendszer, amely az agyval együttműködve működik.

"A fő ötlet az, hogy kölcsönhatásba lépjenek a roboteszköz és az ember között, hozzáadva bizonyos intelligenciát a robotrendszerbe" - mondja Dario Farina, a Londoni Imperial College neurorehabilitációs mérnökének professzora, amelynek laboratóriuma a test és agy idegrendszeri interfészeit vizsgálja és az eszközök, amelyekhez csatlakoznak.

"Nem csak a beteg irányítja az agyával és a neurális interfészen keresztül a protézist, hanem a beteget is segíti egy másik intelligens egység, amely a protézisre van felszerelve és amely látja a környezetet." - mondta Farnia, aki nem vett részt a Newcastle-tanulmányban. "Ebben a legfontosabb kihívás az, hogy meg tudjuk osztani az irányítást az ember és az intelligenciarendszer között."

Ez egy korai lépés a mesterséges intelligencia és az agy összeolvadásáról, és felteszi, hogy mely tevékenységek működnek mindegyiknél a legjobban konfliktusok nélkül. Ghazaei szembesült ezzel a problémával; továbbra is azon dolgozik, hogy ellenőrizze, hogy a széles mozgásnak mekkora részét irányítja a protézis számítógépe, szemben a felhasználó cselekedeteivel. Jelenleg a felhasználó a protézist az elemre irányítja, fotózásra készteti, majd a kar választja meg a fogást és megragadja.

Ez csak egy a sok fennmaradó kihívás közül. Jelenleg a rendszer nem érti a hosszú objektumokat, amelyek kívül esnek. Baj van a zsúfolt háttérrel. Néha egy távolabbi objektumot kisebb, közelebbről értelmez. És Ghazaei szerint egy másik cél a fogási típusok számának 10-re vagy 12-re történő növelése. De azt mondja, hogy a vizsgálatban részt vevő két felhasználó nagyra értékelte a teljesítmény növekedését és az egyszerűségét, amely a valami felvétel alapjául szolgál.

A protetikai végtag „látja”, amit megragad a felhasználó