Compania de securitate cibernetică Irregular a reușit să atragă o finanțare impresionantă de 80 de milioane de dolari, în cadrul unei runde conduse de fondurile de investiții Sequoia Capital și Redpoint Ventures, ceea ce a dus la evaluarea companiei la 450 de milioane de dolari. Irregular se specializează în identificarea riscurilor emergente asociate cu modelele de inteligență artificială înainte ca acestea să fie implementate în aplicațiile comerciale.
Într-o epocă în care modelele de inteligență artificială devin din ce în ce mai avansate și, totodată, mai complexe, Irregular se distinge printr-o abordare inovatoare în dezvoltarea soluțiilor de securitate cibernetică. Fosta cunoscută sub numele de Pattern Labs, compania a reușit să obțină acest capital semnificativ, ridicând astfel întrebarea: ce anume o diferențiază de celelalte startup-uri din domeniul tehnologiei?
Finanțare și evaluare: detalii esențiale
Conform surselor apropiate negocierilor, evaluarea companiei Irregular a ajuns la impresionanta sumă de 450 de milioane de dolari în urma recentelor investiții. Pe lângă fondurile Sequoia Capital și Redpoint Ventures, la această rundă de finanțare a participat și Assaf Rappaport, fondatorului companiei Wiz. Acest tip de investiție reflectă încrederea crescândă în importanța critică a securității cibernetice în raport cu tehnologiile bazate pe inteligența artificială.
Irregular a fost selectată de investitori datorită portofoliului său solid și a rezultatelor demonstrabile. Compania a contribuit semnificativ la evaluările de securitate pentru modele precum Claude 3.7 Sonnet și OpenAI o3, o4-mini. De asemenea, soluția lor pentru testarea vulnerabilităților, cunoscută sub numele de SOLVE, este utilizată pe scară largă în industria de securitate cibernetică.
- Evaluare după finanțare: 450 de milioane de dolari
- Investitori principali: Sequoia Capital, Redpoint Ventures, Assaf Rappaport (Wiz)
- Tehnologii evaluate: Claude 3.7 Sonnet, OpenAI o3, o4-mini
Cum testează Irregular modelele de inteligență artificială
Omer Nevo, co-fondator al companiei, explică modul în care Irregular își desfășoară activitatea de evaluare a securității: „Folosim rețele virtuale în care AI acționează atât ca atacator, cât și ca apărător. În momentul în care un nou model este lansat, putem observa exact în ce zone funcționează apărările și unde acestea eșuează.”
Această metodologie avansată permite companiei să identifice riscurile potențiale înainte ca modelele să fie la dispoziția utilizatorilor. De exemplu, Irregular poate detecta comportamente neașteptate sau vulnerabilități ascunse în interacțiunile dintre sistemele AI, asigurându-se că acestea sunt bine testate înainte de implementare.
Importanța simulărilor pentru securitatea AI
Pe măsură ce modelele de inteligență artificială devin din ce în ce mai autonome, interacțiunile dintre diferitele sisteme AI pot genera scenarii imprevizibile, pe care dezvoltatorii nu le pot anticipa cu ușurință. Sistemul utilizat de Irregular creează medii controlate care permit testarea sistemelor în condiții care simulează provocările din lumea reală, asemănător unui poligon de testare digital.
Contextul industriei și importanța securității AI
În cadrul unei industrii care se află într-o expansiune rapidă, anul curent a evidențiat preocupările legate de securitatea inteligenței artificiale, în special după ce OpenAI și-a actualizat protocoalele interne din cauza riscului crescut de spionaj corporativ. Acest lucru demonstrează că potențialul de exploatare a vulnerabilităților software de către modelele AI devine o problemă critică, având în vedere că unele modele pot analiza coduri complexe mai repede decât experții umani.
Dan Lahav, co-fondatorul Irregular, subliniază: „Dacă scopul laboratoarelor de avangardă este de a dezvolta modele din ce în ce mai sofisticate, misiunea noastră este să le asigurăm securitatea. Este o țintă în continuă mișcare și, prin urmare, implică un efort considerabil în viitor.”
Aceasta evidențiază faptul că fiecare nou model AI are potențialul de a deveni o vulnerabilitate de securitate. Soluțiile tradiționale nu mai sunt suficiente în epoca în care sistemele AI pot detecta aceste slăbiciuni în câteva secunde.
Planurile Irregular pentru viitor
Fondele obținute în urma acestei runde de investiție vor fi utilizate pentru a extinde echipele de cercetare și pentru a dezvolta noi tehnologii de simulare, care să răspundă provocărilor întâlnite în securizarea inteligenței artificiale. Irregular are în vedere lansarea unui sistem avansat de monitorizare în timp real pentru modelele de AI care sunt utilizate în aplicații de producție.
Provocarea principală rămâne adaptarea la ritmul frenetic al evoluției tehnologice. „Nu există un punct final în acest domeniu”, recunoaște Lahav. „Securitatea inteligenței artificiale va fi un proces continuu, nu un produs finit.”
Pentru utilizatorii de rând, acest lucru implica faptul că generațiile viitoare de sisteme AI nu doar că vor deveni mai inteligente, dar vor beneficia și de un nivel mai ridicat de securitate. Investitorii care au susținut Irregular cu suma de 80 de milioane de dolari își pun speranțele că aceste progrese vor aduce beneficii durabile atât pentru industrie cât și pentru utilizatori.




