Un sistem de inteligență artificială destinat detectării armelor a generat o alertă falsă, identificând greșit un pachet de chipsuri ca fiind un pistol. Incidentul s-a petrecut la o școală din Baltimore, SUA, și a dus la intervenția poliției.
Taki Allen, un adolescent de 16 ani din Baltimore, a trăit o experiență traumatică după ce un algoritm de supraveghere al școlii a confundat un pachet gol de Doritos pe care îl avea în buzunar cu o armă de foc. Incidentul s-a petrecut imediat după antrenarea lui la fotbal, când tânărul a pus pachetul de chipsuri în buzunar pentru a-l transporta acasă.
Desfășurarea incidentului
Conform informațiilor oferite, sistemul de inteligență artificială al școlii a emis o alertă care a fost transmisă către evaluatorii umani. Aceștia din urmă au ajuns la concluzia că nu era nicio amenințare. Totuși, directorul școlii, nefiind informat de anularea alertei, a decis să contacteze echipa de siguranță, care a optat pentru chemarea poliției. În scurt timp, opt mașini de poliție au sosit la fața locului, iar agenții, înarmați, au intervenit, punându-l pe Taki la pământ și încătușându-l.
- Sistemul AI a generat o alertă, confundând pachetul de chipsuri cu o armă
- Directorul a decis să acționeze fără să verifice statusul alertei
- Opt echipaje de poliție au intervenit la școală
„Au apărut cam opt mașini de poliție, iar apoi toți agenții au ieșit cu armele îndreptate spre mine, ordonându-mi să mă pun la pământ.”, a relatat Taki Allen pentru WMAR-2 News. “Mi-a spus să mă pun în genunchi, m-a arestat și mi-a pus cătușe.” Poliția din Baltimore a confirmat că, deși băiatul a fost încătușat, nu a fost arestat.
Reacția autorităților și a școlii
Reprezentanții Departamentului de Poliție din Baltimore au anunțat că intervenția poliției a fost proporțională cu informațiile disponibile la acel moment. Aceștia au subliniat că incidentul s-a încheiat în siguranță după ce s-a stabilit că nu existau amenințări reale.
Kate Smith, directoarea școlii, a trimis o scrisoare părinților prin care explica că echipa de siguranță a evaluat rapid și a anulat alerta originală după ce a confirmat că nu exista nicio armă. „L-am contactat pe ofițerul nostru de resurse școlare (SRO) și i-am raportat incidentul, iar apoi el a solicitat sprijin suplimentar din partea poliției locale.”, a afirmat aceasta. Ofițerii au percheziționat adolescentul și au confirmat rapid că nu avea asupra lui nicio armă.
Efectele asupra elevului
Taki Allen a explicat că, după acest incident, el preferă să rămână în interior după antrenamente, simțindu-se nesigur dacă rămâne afară, mai ales când mănâncă chipsuri sau bea apă. „Nici măcar nu mai ies afară să mănânc sau să beau”, a spus el. „Niciun pachet de chipsuri nu ar trebui confundat cu o armă.”
Controverse privind tehnologia de detectare a armelor
Compania Omnilert, principalul furnizor de tehnologii de detectare a armelor prin inteligență artificială implicată în incident, afirmă pe site-ul său că tehnologia sa utilizează „detectare mai fiabilă, cu mai puține alarme false și un sistem care funcționează eficient acolo unde este cel mai necesar”. Totuși, compania admite că detectarea armelor în condiții reale este o provocare complexă.
„Metodologia noastră bazată pe date antrenează inteligența artificială să funcționeze eficient în aceste situații, folosind date colectate din situații reale, nu simulări.”
- Omnilert afirmă că utilizează date din medii reale pentru a instrui AI-ul
- Compania susține că sistemul reduce numărul de alarme false
- Problemele de identificare corectă continuă să fie frecvente
Consilierul local Izzy Pakota a cerut Baltimore County Public Schools să reevalueze procedurile asociate sistemului lor de detecție a armelor bazat pe inteligență artificială. În plus, BBC a solicitat o reacție din partea Omnilert, dar compania nu a oferit deocamdată un răspuns.
De asemenea, anul trecut, Evolv Technology, o altă companie din domeniu, a fost interzisă să mai emită afirmații nefondate despre produsele sale, după ce a susținut că sistemul său AI are capacitatea de a detecta toate tipurile de arme. Investigațiile BBC au demonstrat că aceste declarații nu erau susținute de dovezi clare.
Perspectiva asupra viitorului tehnologiei în școli
Tot mai multe instituții de învățământ din Statele Unite adoptă sisteme de inteligență artificială pentru detectarea armelor, însă incidentul din Baltimore scoate la iveală riscurile și limitele acestor tehnologii. Experții fac apel la organismul de conducere a școlilor să fie atenți, avertizând că algoritmii pot fi ușor induși în eroare de obiecții comune, cum ar fi pachetele de chipsuri, umbrelele sau cutiile de băuturi.
Deși poliția susține că a respectat toate procedurile corecte, incidentul a stârnit dezbateri ample cu privire la siguranța și eficiența sistemelor de inteligență artificială în școli. Oamenii se întreabă dacă aceste tehnologii ar trebui să fie revizuite sau chiar înlocuite cu soluții mai sigure, menite să elimine posibilitatea unor incidente similare în viitor.
Cazul lui Taki Allen subliniază importanța comunicării eficiente între toate persoanele implicate în gestionarea siguranței școlare. De asemenea, ridică întrebări legate de responsabilitate și protectie în fața tehnologiei care, deși are potențialul de a spori securitatea, poate conduce și la scenarii imprevizibile.
Este esențial ca autoritățile să îmbunătățească comunicarea dintre sistemele de avertizare AI și persoanele responsabile de reacțiile ulterioare pentru a preveni recidivele și pentru a proteja elevii. De asemenea, este vital ca părinții și comunitățile să fie implicați în discuțiile referitoare la tehnologiile folosite în școli pentru a se asigura că deciziile sunt luate cu gândul la binele copiilor.
În concluzie, incidentul din Baltimore cu Taki Allen reprezintă un exemplu clar al provocărilor și riscurilor asociate implementării tehnologiei de inteligență artificială în mediul școlar. Deși obiectivul este de a oferi un mediu mai sigur pentru elevi, este imperativ ca toți cei implicați să colaboreze și să reevalueze modul în care aceste tehnologii sunt utilizate.
O abordare mai blândă, care îmbină tehnologia cu judecata umană, ar putea preveni confuzii viitoare și ar asigura un cadru mai sigur și mai eficient pentru educația tinerelor generații.




