Un adolescent din Baltimore a trăit o experiență de anxietate extremă după ce un sistem de inteligență artificială a interpretat greșit un ambalaj de snacks ca fiind o armă.
Ce s-a întâmplat de fapt?
Taki Allen, un tânăr de 16 ani din Baltimore, a avut o zi de antrenament de fotbal care s-a transformat rapid într-un coșmar. După ce a terminat antrenamentele, a decis să mănânce un pachet de Doritos și a pus ambalajul gol în buzunarul său. La scurt timp, el a fost abordat de către polițiști înarmați, care au intervenit în forță, fiind alertați de o posibilă amenințare. Taki a povestit că, după aproximativ douăzeci de minute, a observat opt mașini de poliție sosind în zona în care se afla. Povestea lui a fost relatată în detaliu pentru WMAR-2 News.
„Poliția a venit, iar toate cele opt autospeciale au apărut rapid pe scenă. Apoi, ofițerii au ieșit cu armele îndreptate spre mine, spunându-mi să mă întind la pământ.”, a relatat el. „M-au pus în genunchi, m-au arestat și mi-au pus cătușele.”
Incidentul a lăsat o amprentă adâncă asupra tânărului, care a spus că se simte extrem de speriat de ceea ce s-a întâmplat. Departamentul de Poliție al Județului Baltimore a confirmat intervenția, menționând că, din fericire, situația a fost rezolvată fără a exista vreo amenințare reală.
Cum a funcționat sistemul AI
Alarmarea a fost generată de Omnilert, o companie specializată în detectarea armelor folosind inteligența artificială. Se pare că sistemul a interpretat greșit forma ambalajului de chipsuri ca fiind o armă de foc reală. După ce a fost generată alerta, imaginea a fost verificată de o echipă umană a companiei, care a considerat-o ca o amenințare potențială. Aceasta a transmis rapid informația către echipa de siguranță a școlii, care a luat măsuri imediate.
- Un AI a detectat un obiect suspect și a trimis o alertă de urgență.
- Echipa umană de verificare a Omnilert a confirmat alerta inițială trimisă de sistemul AI.
- Directorul școlii a contactat partea poliției pentru asistență, în ciuda faptului că alerta fusese deja anulată.
Directorul școlii, Kate Smith, a declarat: „L-am contactat pe ofițerul nostru de resurse școlare (SRO) și i-am raportat situația. El a contactat secția locală pentru sprijin suplimentar.” Smith a adăugat: „Ofițerii au intervenit rapid, l-au percheziționat pe tânăr și au confirmat că nu exista nicio armă.”
Potrivit Omnilert, procesul a funcționat așa cum era de așteptat: „Chiar dacă obiectul a fost ulterior identificat ca nefiind o armă de foc, întregul proces a respectat intenția fondatoare: prioritizarea siguranței și a conștientizării printr-o verificare rapidă și eficientă de către personal uman.” Compania a subliniat că tehnologia lor este utilizată în sute de școli din întreaga țară, dar a recunoscut că „detectarea armelor în lumea reală este o provocare complicată.”
Reacții și controverse
Părțile implicate răspund
Reacțiile la acest incident nu au întârziat să apară. Omnilert a emis o declarație de regret pentru ceea ce s-a întâmplat, spunând: „Ne pare rău că acest incident s-a produs și dorim să exprimăm îngrijorarea noastră pentru studentul și comunitatea afectată de evenimentele care au urmat.”
Consilierul local Izzy Pakota a cerut o revizuire a procedurilor în vigoare: „Fac apel la Școlile Publice din Baltimore County să reevalueze și să îmbunătățească procedurile legate de sistemul lor de detectare a armelor bazat pe inteligența artificială.” El a publicat această cerere pe rețelele sociale, fiind susținut și de organizații care pun la îndoială siguranța și eficiența tehnologiilor de supraveghere.
Impactul asupra adolescentului
Taki Allen a declarat că acest incident l-a marcat profund: „Acum prefer să aștept în interior după antrenamente, nu îmi doresc să mai trec printr-o astfel de experiență.” El a adăugat: „Nu cred că o pungă de chipsuri ar trebui confundată cu o armă.” După această experiență traumatizantă, familia sa analizează opțiunile legale împotriva celor responsabili de incident.
Ce spun experții despre inteligența artificială?
Incidentele de acest gen pun pe tapet eficiența sistemelor de detectare a armelor. Anul trecut, compania Evolv Technology a fost sancționată datorită unor declarații false privind capabilitățile sistemului său, care nu reușea să identifice toate armele, deși era utilizat în mii de școli, spitale și stadioane din întreaga țară.
- Sistemele AI pot avea o rată semnificativă de eroare în identificarea obiectelor.
- Verificarea umană nu poate corecta întotdeauna greșelile în timp util.
- Școlile trebuie să găsească un echilibru între asigurarea siguranței și respectarea drepturilor individuale ale elevilor.
Discuțiile dintre susținătorii acestor tehnologii și criticii lor continuă, iar acest incident aduce în discuție necesitatea unor reglementări mai riguroase.
Ce urmează după acest incident?
În urma incidentului, școala a anunțat că va revizui întregul protocol de securitate. Poliția a declarat că a acționat conform procedurilor primind informațiile disponibile la acel moment. Cu toate acestea, problema lipsei unor standarde clare pentru sistemele AI utilizate în spațiile publice continuă să fie o temă de discuție. Specialiștii avertizează că astfel de incidente ar putea deveni din ce în ce mai frecvente pe măsură ce tehnologia progresează. Aceștia consideră că soluția constă atât în îmbunătățirea algoritmilor cât și în instruirea corespunzătoare a personalului care utilizează aceste sisteme, pentru a evita astfel de confuzii pe viitor.
Deocamdată, Taki Allen continuă să rămână prudent, chestionând nu doar utilizarea tehnologiei AI, dar și siguranța sa personală în cadrul unui mediu școlar care ar trebui să fie protector.
