https://frosthead.com

Segít-e a mesterséges intelligencia az iskolai lövöldözésnek?

Minden lenyűgöző gyakorisággal az iskolai lövöldözés zavaró horror marad.

Nem csak kevés egyetértés van abban, hogyan lehet megállítani őket - olyan javaslatokkal, amelyek a fegyverhez való hozzáférés korlátozásától a fegyveres tanítókig terjednek -, de még kevésbé biztos a bizonyosság abban, hogy egy tanuló miért tűzolt az osztálytársaival szemben.

Most néhány tudós megkezdi annak feltárását, hogy a mesterséges intelligencia (AI) segíthet-e választ találni. Az ötlet az, hogy az algoritmusok képesek lesznek jobban elemezni az iskolai lövöldözéshez kapcsolódó adatokat, és talán még azonosíthatják a hallgatói nyelv vagy magatartás mintáit, amelyek előre láthatják az iskolai erőszakot. A kutatás még mindig korai szakaszában van, és annak a kilátása, hogy gépeket használ annak előrejelzésére, hogy ki válhat iskolai lövöldözősérekkel, magánéletvédelmi kérdéseket vet fel és más etikai kérdéseket vet fel bármilyen profilozással kapcsolatban, különösen mivel a folyamat gyermekeket von magában. A cél azonban az, hogy megvizsgáljuk, vajon az intelligens gépek analitikus ereje nagyobb egyértelműséget adhat-e a tragédiák számára, amelyeket túl gyakran vesznek igénybe magas érzelmek és politikai retorika fordulatában.

A technológiához fordulva

A mesterséges intelligencia felhasználása annak érdekében, hogy a tudományos elemzést olyan átfoghatatlanná tegyék, amelyben az iskolai lövöldözés nagyon vonzó volt Shreya Nallapati-hoz. Nemrég fejezte be a középiskolát Coloradóban, de februárban, miután a floridai Parklandben 17 hallgató lövöldöztek, Emma Gonzalez hallgatóvezető ihlette őt a cselekvésre.

"Úgy éreztem, hogy nem csak el kell küldenünk gondolatainkat és részvétünket" - mondja Nallapati. "Azt hittem, hogy az évezredek növekvő generációjaként meg kell próbálnunk azt, amit a legjobban tudunk - a technológiát."

Tehát Nallapati, aki a középiskolában mesterséges intelligenciát tanulmányozta, más olyan fiatal nőkkel is megismerkedett, akikkel ismeri a Számítástechnika törekvése nevű programot, amelyet a Nemzeti Nők és Információs Technológia Központ vezet. A számítástechnika törekvése arra ösztönzi a fiatal nőket, hogy lépjenek be a számítástechnika és a technológia területére.

Nallapati a csoport többi tagját kérte, hogy csatlakozzon hozzá egy új projekthez, a #NeverAgainTech-hez. Reméli, hogy az együttműködés eredményeként az iskolai forgatásokkal kapcsolatos adatok széles köre AI-vezérelt összegyűjtését és elemzését fogja eredményezni - a korábbi lövöldözőkkel kapcsolatos demográfiai és társadalmi-gazdasági információktól a droghasználat vagy neurológiai rendellenességek bármelyikétől a fegyverek rendelkezésre állása azokban az államokban, ahol támadások történt. A cél az iskolai lövöldözés sok elemének átfogóbb lebontása, mint a jelenleg létezőek, és az így kapott szoftvert a jövőre elérhetővé kell tenni a nyilvánosság számára, különösen az iskolák és a bűnüldöző szervek számára.

A kockázat felmérése

A Cincinnati Gyermekkórház Egészségügyi Központ kutatói egy másik megközelítést alkalmaznak az AI használata során az iskolai erőszak kezelésére. Nemrégiben közzétette egy tanulmányt, amely szerint a gépi tanulás potenciálisan segíthet a terapeutáknak és tanácsadóknak a hallgatók által jelentett kockázat szintjének felismerésében.

Konkrétan, a tudósok úgy találták, hogy az AI ugyanolyan pontos, mint a gyermek- és serdülőkori pszichiáterek egy csoportja, amikor az erőszakos viselkedés kockázatát értékelte, 12–18 éves korú 119 gyermekkel folytatott interjúk alapján. Míg a tanulmány nagyrészt a testi agresszió, Drew Barzman vezető kutatója szerint ez az iskolai lövöldözés kockázatának felmérésére is alkalmazható volt.

"Általában figyelmeztető jelzések vannak, mielőtt iskolai erőszakkal jár" - mondja. Barzman korábbi kutatása szerint a hallgatók által az interjú során alkalmazott nyelv segíthet megkülönböztetni a magas kockázatú tinédzsert az alacsony kockázatútól. A tanulmány arra a következtetésre jutott, hogy az előbbi inkább negatív érzéseket fejez ki önmagával és mások cselekedeteivel szemben. Emellett valószínűbb, hogy magával ragadó erőszakos cselekedetekről, valamint erőszakos videojátékokról vagy filmekről beszél.

A csoport újabb lépést tett azáltal, hogy egy AI algoritmus felhasználta a korábbi tanulmány eredményeit az új kutatás céljából megkérdezett hallgatók átírásainak elemzésére. A nyelvi minták alapján jelezte, hogy egy személynek magas vagy alacsony az erőszakos cselekmény kockázata. Az idő több mint 91 százalékában az algoritmus, csak az átírásokat használva, igazodott a gyermek- és serdülőkori pszichiáterek egyre szélesebb körű értékeléséhez, akik szintén hozzáfértek a szülők és az iskolák információihoz.

A tanulmányban részt vevő hallgatókat főként pszichiátriai járóbeteg-klinikákból, fekvőbeteg-osztályokból és sürgősségi osztályokból vették fel. Néhányan a közelmúltban jelentős viselkedésbeli változásokat mutattak, mások esetében kisebb változások voltak. Barzman szerint sokféle iskolában jártak, bár egyikük sem volt otthoni iskolában.

Barzman szerint a tanulmány az iskolai fizikai agresszió előrejelzésére összpontosított, de még mindig nem ismert, hogy a gépi tanulás valóban megakadályozhatja-e az erőszakot. Ezen a ponton a hangsúly a terapeuták és tanácsadók számára olyan eszköz biztosítása, amely interjúk alapján élesebbé teheti a hallgatók értékelését. Barzman megjegyzi, hogy nem szándékozik, hogy a gépek döntéseket hozzanak a hallgatókkal kapcsolatban.

"Alapvetően azt jelentené, hogy segítsen a klinikusnak a döntéshozatalában" - mondja Barzman. "Olyan struktúrát adunk nekik, amelyet fontos kérdéseknek találtunk. Nehéz lehet interjút készíteni egy hallgatóval, kiválasztani a megfelelő információkat és mindent megjegyezni. Az ötlet az, hogy olyan eszközt adjunk nekik, amely segíthet nekik. a folyamaton keresztül, és javítják értékeléseik pontosságát. "

Matty Squarzoni egy másik hívő a mesterséges intelligencia lehetőségeiben az iskolai erőszak kezelésében. A Sitch AI nevű kaliforniai induló cég vezérigazgatója, amely azt tervezi, hogy piacra dobja az olyan technológiákat, amelyek szerint az iskolák segíthetnek az iskolák kezelésében az ilyen fenyegetésekkel szemben. A kezdetben a szenzorok rendszerének fejlesztésére összpontosítanak, amelyek lehetővé teszik a rendőrök számára, hogy észleljék a lövések pontos helyét, és nyomon kövessék a lövők mozgását egy iskolán keresztül. De Squarzoni szerint a vállalat arra törekszik, hogy miként lehet prediktív elemzést felhasználni a lehetséges problémák felismerésére, még mielőtt azok erőszakossá válnának.

Úgy véli, hogy a mesterséges intelligencia elemezheti a hallgató adatait, és megjelölheti teljesítményében vagy viselkedésében bekövetkező jelentős változásokat. Squarzoni elismeri a magánélettel kapcsolatos lehetséges aggályokat, de azt állítja, hogy a vállalat nem ismeri a hallgatók személyazonosságát.

"Nem a profilok létrehozásáról van szó." - mondja. „Mindenkire különálló entitásként tekintettünk. De az emberek szokásos lények. Amikor elkezdenek szabálytalanságokat tapasztalni, akkor kezdd el őket megnézni. Megfigyeli a zászlókat, és talán a zászlók egyre közelebb kerülnek egymáshoz. Lehet, hogy mentálhigiénés problémák, vagy esetleg a fokozatuk csökken.

„Nem arra gondolunk, hogy azt mondhatjuk:„ Ez a személy lövöldözős lesz ”. Azt akarjuk mondani, hogy "Ennek a személynek segítségre van szüksége."

Nem olyan gyorsan?

De másoknak komoly aggodalmaik vannak a szoftver-algoritmusok használatának rohanása miatt az összetett társadalmi kérdések kezelésére.

"Most azt a tendenciát látjuk, hogy az AI riasztó sebességgel alkalmazza a nagyon érzékeny területeket, és az algoritmusokat készítő emberek nem feltétlenül értik az általuk használt adatok összes társadalmi és még politikai szempontját is" - mondja Rashida Richardson, a New York-i Egyetemen az AI Now Institute politikai kutatási igazgatója, amely a mesterséges intelligencia társadalmi következményeit vizsgálja.

Az egyik terület, ahol az AI használata tűz alá került, az úgynevezett prediktív rendőrség. Ezek olyan szoftvertermékek, amelyek elemezik a bűnözési statisztikákat, majd megjósolják, ahol a bűncselekmények valószínűbb elkövetése. A kritikusok azonban rámutattak, hogy az olyan adatok, mint a letartóztatások az emberi elfogultság következményei, amelyek végül beépíthetők az algoritmusba.

Mindig fennáll a prediktív elemzés kockázata, és az adatok forrása miért kulcsfontosságú tényező annak meghatározásában, hogy valóban objektív lehet-e. A Cincinnati Gyermekkórház kutatói által kifejlesztett AI-eszközzel azonban az elemzés az egyetemi hallgatók interjú során elmondottain alapul, nem pedig a statisztikák széles körű összeállításán.

Richardson mégis fontosnak tartja, hogy az ilyen szoftvereket készítő csapatok „interdiszciplináris” legyenek, így például az oktatók bekapcsolódjanak a hallgatók viselkedését felmérő programokba.

„A kutatók valószínűleg nem értik meg az oktatás és a jogpolitika világában az emberek iskolai légkörének sok árnyalatait. Ide tartoznak a biztonsági és magatartási kérdések is ”- mondja. „Az a fajta iskola, amelyben részt vesz, gyakran diktálja a viselkedés kezelését és a fegyelem kezelését.

"Például a bérleti iskolákban sokkal szigorúbb fegyelmi politikák vannak érvényben" - tette hozzá Richardson. „Az ebben a környezetben élő gyermekeket sokkal eltérően kezelik, mint egy csúcsminőségű magániskolában és még más állami iskolákban is.

„Nagyon nehéz megkísérelni megérteni a nagyon bonyolult kérdéseket, amelyekbe beleszámít a számtalan bemenet, és egy technikai megoldást alkalmazni, amely tükrözi annak rágcsálását, mert vagy megismételheti ugyanazokat a problémákat, amelyeket a társadalomban látunk, vagy megoldást kínálhat egy olyan problémára, amely nincs ott. ”

Richardson szerint további aggodalomra ad okot, hogy még ha egy AI programot a legjobb szándékkal is fejlesztenek ki, akkor a végén felhasználhatók olyan módon, amelyet az alkotók nem számítanak.

"Ha egyszer felfedezte ezeket az eszközöket" - mondja a nő -, az nem olyan, mintha továbbra is ellenőrzése alatt állnánk azok végrehajtása felett, vagy hogy továbbra is hatással lesznek a társadalom egészére. "

Segít-e a mesterséges intelligencia az iskolai lövöldözésnek?