https://frosthead.com

Hogyan segíthet az állatok megértése a legtöbbet hozni a mesterséges intelligencia szempontjából?

Minden nap számtalan címsor jelenik meg számtalan forrásból az egész világon, mind a szörnyű következményekre figyelmeztetve, mind az utópikus jövőt ígérve - mindezt a mesterséges intelligencianak köszönhetően. Az AI „átalakítja a munkahelyet”, írja a Wall Street Journal, míg a Fortune magazin azt mondja nekünk, hogy „AI forradalommal” állunk szemben, amely „megváltoztatja az életünket”. De nem igazán értjük, hogy milyen lesz az AI-vel való kölcsönhatás. - vagy milyennek kell lennie.

Kiderül, hogy már van olyan koncepciónk, amelyet használhatunk az AI-re gondolkodva: Így gondolkodunk az állatokról. Mint egy korábbi állati tréner (bár röviden), aki most tanulmányozza, hogy az emberek hogyan használják az AI-t, tudom, hogy az állatok és az állatok kiképzése nagyon sokat taníthat nekünk arról, hogyan kell gondolkodnunk, megközelítenünk és kölcsönhatásba lépnünk a mesterséges intelligenciával, mind most, mind a jövő.

Az állati analógiák használata segíthet a normál embereknek a mesterséges intelligencia sok bonyolult szempontjának megértésében. Segíthet arra is, hogy gondolkodjunk azon, hogyan lehet ezeket a rendszereket legjobban új képességeket tanítani, és ami talán a legfontosabb: hogyan tudjuk megfelelően felfogni korlátjaikat, még akkor is, ha ünnepeljük az AI új lehetőségeit.

Korlátozások megtekintése

Ahogy az AI szakértője, Maggie Boden elmagyarázza: „A mesterséges intelligencia arra törekszik, hogy a számítógépek olyan dolgokat készítsenek, amelyeket az elmék tehetnek.” Az AI kutatói azon dolgoznak, hogy a számítógépeket oktatják, észleljék, tervezzék, mozgatják és társulásokat hozzanak létre. Az AI láthat mintákat nagy adathalmazokban, előrejelzheti egy esemény bekövetkezésének valószínűségét, megtervezheti az útvonalat, kezelheti egy személy találkozási ütemtervét és akár háborús játék forgatókönyveket is lejátszhat.

Ezeknek a képességeknek a nagy része önmagában nem meglepő: Természetesen egy robot egy hely körül gördülhet, és nem ütközhet semmivel. De valahogy az AI varázslatosabbnak tűnik, amikor a számítógép elkezdi ezeket a készségeket összerakni a feladatok elvégzéséhez.

Vegyünk például autonóm autókat. A sofőr nélküli autó eredete az 1980-as években a Fejlesztési Fejlesztési Kutatási Projekt Ügynökség Autonomous Land Vehicle néven működő projektje. A projekt célja a számítógépes látás, az észlelés, a tervezés és a robotvezérlés kutatásának ösztönzése volt. 2004-ben az ALV erőfeszítése lett az első önálló járművek Grand Challenge-je. Most, több mint 30 évvel az erőfeszítés kezdete óta, az autonóm vagy önjáró autók szélén állunk a polgári piacon. Az első években kevés ember gondolta, hogy ez a játék nem lehetséges: A számítógépek nem tudtak vezetni!

Mint láttuk, ők is megtehetik. Az autonóm autók képességeit viszonylag könnyű megérteni számunkra. De küzdünk annak érdekében, hogy megértsük korlátjaikat. A 2015. évi végzetes Tesla-ütközés után, amikor az autó autopilot funkciója nem érzékelte a sávjára átmenő traktor-utánfutót, úgy tűnik, hogy kevés még mindig megragadja a Tesla autopilótajának korlátozott súlyát. Miközben a Nemzeti Autópálya Közlekedésbiztonsági Igazgatása mentesítette a társaságot és szoftvereit a gondatlanságból, továbbra sem világos, hogy az ügyfelek valóban megértsék-e az autó mit és mit nem.

Mi lenne, ha a Tesla tulajdonosának nem azt mondanák, hogy nem egy autopilot „béta” verzióját, hanem egy félig autonóm autót vezetnek, egy féreg mentális egyenértékűségével? Az úgynevezett „intelligencia”, amely a „teljes önvezetési képességet” biztosítja, valójában egy hatalmas számítógép, amely elég jól érzékeli a tárgyakat és elkerüli őket, felismeri a képeken lévő elemeket és korlátozottan tervezi. Ez megváltoztathatja a tulajdonosok azon nézetét, hogy az autó ténylegesen képes-e emberi beavatkozás vagy felügyelet nélkül.

Mi az?

A technológusok gyakran megpróbálják megmagyarázni az AI-t annak felépítésének szempontjából. Vegyük például a mély tanulás terén elért haladást. Ez egy olyan technika, amely többrétegű hálózatokat használ a feladatok elvégzésének megtanulására. A hálózatoknak hatalmas mennyiségű információt kell feldolgozniuk. De az általuk igényelt adatok mennyisége, a hálózatokban található asszociációk és algoritmusok összetettsége miatt az emberek számára gyakran nem világos, hogy megtanulják, amit csinálnak. Ezek a rendszerek nagyon jól válhatnak egy adott feladathoz, de nem igazán értjük őket.

Ahelyett, hogy az AI-ről mint emberfeletti vagy idegenről gondolkodna, könnyebb őket analógizálni állatokkal, intelligens nem emberekkel, akiknek tapasztalataink vannak képzésben.

Például, ha megerősítéses tanulást használnék egy kutya ülésre történő kiképzéséhez, dicsérnék a kutyát, és kezembe adnám neki, amikor parancsnoki ülésre kerül. Idővel megtanulta hozzákapcsolni a parancsot a viselkedéshez a csecsemőhöz.

Az AI rendszer kiképzése nagyjából ugyanaz lehet. A mély tanulás megerősítése érdekében az emberi tervezők felállítanak egy rendszert, elképzelik, hogy mit akarnak tanulni, információt adnak neki, figyeli a működését és visszajelzést adnak (például dicséret), amikor látják, amit akarnak. Lényegében úgy kezelhetjük az AI rendszert, mint a kiképzett állatokat.

Az analógia mélyebb szinten is működik. Nem várom el, hogy az ülő kutya megértse az olyan összetett fogalmakat, mint a „szerelem” vagy „jó”. Vártam, hogy ő viselkedést tanuljon. Csakúgy, ahogy kutyákat ültethetünk, tartózkodhatunk és átfordulhatunk, AI-rendszereket kaphatunk az autók közutakon történő mozgatására. De túl sokat számíthatunk arra, hogy az autó „megoldja” az etikai problémákat, amelyek a vészhelyzetek vezetésekor felmerülhetnek.

Segítünk a kutatóknak is

A madárinfluenza, mint kiképezhető állat gondozása nemcsak hasznos annak magyarázataként. Ez a technológiát építő kutatók és mérnökök számára is hasznos. Ha az AI tudós egy új készséget próbál megtanítani a rendszerre, akkor a folyamatnak az állati edző szempontjából történő átgondolása segíthet azonosítani a lehetséges problémákat vagy szövődményeket.

Például, ha megpróbálom kiképezni a kutyámat ülésre, és minden alkalommal, amikor azt mondom, hogy „ülj” a hangjelző kialszik a sütőhöz, akkor a kutyám az ülést nemcsak a parancsomat, hanem a hang hangját is társítja. sütő hangjelzője. Lényegében a zümmélő egy másik, a kutyát ülő jelképpé válik, amelyet „véletlen megerősítésnek” hívnak. Ha véletlen megerősítéseket vagy jeleket keresünk az AI rendszerekben, amelyek nem működnek megfelelően, akkor jobban megismerjük nemcsak mi történik rossz, de azt is, hogy melyik konkrét átképzés lesz a leghatékonyabb.

Ez megköveteli, hogy megértsük, milyen üzeneteket adunk az AI-képzés során, valamint azt, hogy az AI mit figyelhet a környező környezetben. A sütő hangjelzője egy egyszerű példa; a való világban sokkal bonyolultabb lesz.

Mielőtt üdvözölnénk az AI feletti ellenőröket, és életünket és munkáinkat robotoknak adnánk át, szüneteltetnünk kell és gondolkodnunk kell az általunk létrehozott intelligencia fajtáin. Nagyon jók lesznek bizonyos tevékenységek vagy feladatok elvégzésében, de nem tudják megérteni a fogalmakat, és semmit sem tudnak. Tehát, amikor arra gondolsz, hogy egy új Tesla autó számára ezreket ürítsen ki, ne feledje, hogy az autopilóta funkció valójában csak egy nagyon gyors és szexi féreg. Tényleg át akarja adni egy féregnek az irányítását az életed és a szeretteitek életében? Valószínűleg nem, tehát tartsa a kezét a kormánynál, és ne essen elaludni.


Ezt a cikket eredetileg a The Conversation kiadta. A beszélgetés

Heather Roff, az Oxfordi Egyetem Politika és Nemzetközi Kapcsolatok Tanszékének vezető kutatója; Kutató, globális biztonsági kezdeményezés, Arizonai Állami Egyetem

Hogyan segíthet az állatok megértése a legtöbbet hozni a mesterséges intelligencia szempontjából?