Google testează tehnologia de recunoaștere facială pentru securitatea birourilor „pentru a ajuta la prevenirea accesului persoanelor neautorizate în campusurile noastre”, conform unei descrieri a programului care a fost văzută de CNBC.
Testul inițial are loc la unul dintre sediile Alphabet din Kirkland, Washington, o suburbie a orașului Seattle, se arată în document. Camerele de securitate din interior au colectat date faciale și le-au comparat cu imaginile stocate de pe ecusoanele angajaților, pentru a determina dacă există persoane neautorizate în incintă.

Google – un incident violent notabil în trecut
Google s-a confruntat cu cel puțin un incident violent notabil în trecut. În 2018, o femeie a deschis focul la biroul YouTube din San Bruno, California, rănind trei persoane. Trăgătoarea ar fi vizat YouTube pentru că „ura” compania întrucât i-a blocat videoclipurile.
Recunoașterea facială va fi autorizată în unele cazuri, iar instrumentele AI din industria militară sunt acceptate. Ce înseamnă de fapt reglementările pentru Inteligența Artificială propuse de UE?
Reglementările AI propuse de UE au fost aprobate recent de Parlamentul European și reprezintă o piatră de hotar în domeniul tehnologiei. Votul este un pas important spre introducerea legislației, care necesită acum aprobarea oficială a miniștrilor din statele membre UE. Totuși, există încă foarte multe semne de întrebare cu privire la lejeritatea limitelor pe care cei care utilizează AI n-ar trebui să le treacă. Consumatorii nu vor observa o diferență imediată, în condițiile în care actul va fi implementat pe o perioadă de trei ani.
„Utilizatorii vor putea avea încredere că instrumentele AI la care au acces au fost verificate cu atenție și sunt sigure pentru utilizare”, a declarat Guillaume Couneson, partener la firma de avocatură Linklaters. „Siguranța va fi similară cu cea în cazul aplicațiilor bancare pentru care consumatorii care pot avea încredere că banca a luat măsuri de securitate stricte”. Proiectul de lege contează în afara UE, deoarece Bruxelles-ul este un organism de reglementare tehnologic influent, așa cum arată impactul GDPR asupra gestionării datelor oamenilor. „Multe alte țări vor urmări ce se întâmplă în UE după adoptarea Legii AI. Abordarea UE va fi probabil copiată numai dacă se dovedește că funcționează”, a adăugat Couneson.
Atenție Google. Legislația interzice sistemele care prezintă un „risc inacceptabil”
O definiție de bază a inteligenței artificiale este cea potrivit căreia AI este un sistem computerizat care îndeplinește sarcini pe care le-ai asocia în mod normal cu nivelurile de inteligență umane, cum ar fi scrierea unui eseu sau desenarea unei imagini. Actul în sine are o abordare mai detaliată, descriind tehnologia AI pe care o reglementează drept un „sistem bazat pe mașini proiectat să funcționeze cu diferite niveluri de autonomie”, care acoperă, evident, instrumente precum ChatGPT.
Acest sistem poate arăta „adaptabilitate după implementare” – adică învață la locul de muncă – și deduce din răspunsurile pe care le primește „cum să genereze rezultate cum ar fi predicții, conținut, recomandări sau decizii care pot influența mediile fizice sau virtuale”.Această definiție acoperă chatboții, dar și instrumentele AI care, de exemplu, cercetează cererile de locuri de muncă. Legislația interzice sistemele care prezintă un „risc inacceptabil”, dar scutește instrumentele AI concepute pentru uz militar, de apărare sau de securitate națională, probleme care alarmează mulți susținători ai siguranței tehnologiei.
De asemenea, nu se aplică sistemelor concepute pentru a fi utilizate în cercetarea științifică și inovare. „Ne temem că scutirile pentru securitatea națională din Actul AI oferă statelor membre o posibilitate pentru a ocoli reglementările esențiale privind inteligența artificială și creează un risc ridicat de abuz”, a declarat Kilian Vieth-Ditlmann, șef adjunct la non-profit din Germania, Algorithmwatch, care militează pentru utilizarea responsabilă a AI.
Polițiștii vor putea folosi recunoașterea facială
Anumite sisteme vor fi interzise. Printre acestea sunt și acele sisteme care încearcă să manipuleze oamenii pentru a provoca rău; sisteme de „capital social” care clasifică oamenii în funcție de comportamentul social sau de personalitate, cum ar fi cel din Rongcheng, China, unde orașul a evaluat aspectele comportamentului rezidenților; monitorizarea emoțiilor oamenilor la locul de muncă sau în școli; sisteme de „categorisire biometrică” care verifică oamenii pe baza datelor lor biometrice (scanări ale retinei, recunoaștere facială, amprente) pentru a deduce lucruri precum rasa, orientarea sexuală, opiniile politice sau credințele religioase; și compilarea bazelor de date de recunoaștere facială prin preluarea imaginilor faciale de pe internet sau CCTV.
Recunoașterea facială a fost un factor controversat în legislație. Utilizarea sistemelor de identificare biometrică în timp real – care acoperă tehnologia de recunoaștere facială a mulțimilor în direct – este interzisă, dar permisă pentru aplicarea legii într-o serie de circumstanțe.
Oamenii legii pot folosi o astfel de tehnologie pentru a găsi o persoană dispărută sau pentru a preveni un atac terorist, dar vor avea nevoie de aprobarea autorităților – deși în circumstanțe excepționale poate fi desfășurată fără aprobare prealabilă.
Drepturile de autor vor fi respectate doar în anumite cazuri
Inteligența Artificială generativă – termenul pentru sistemele care produc text, imagini, video și audio plauzibile – este acoperită de prevederi pentru ceea ce legea numește sisteme AI „de uz general”. Va exista o abordare pe două niveluri. În cadrul primului nivel, toți dezvoltatorii de modele vor trebui să respecte legislația UE privind drepturile de autor și să furnizeze rezumate detaliate ale conținutului utilizat pentru instruirea modelului.
Nu este clar cum modelele deja instruite vor putea să se conformeze, iar unele sunt chiar în acest moment sub presiune legală. The New York Times dă în judecată OpenAI, iar Getty Images dă în judecată StabilityAI, acuzând încălcarea drepturilor de autor.
Modelele cu sursă deschisă, care sunt disponibile gratuit pentru public, spre deosebire de modelele „închise” precum GPT-4 de la ChatGPT, vor fi scutite de cerința privind drepturile de autor. Un nivel mai dur este rezervat modelelor care prezintă un „risc sistemic” – pe baza unei evaluări a „inteligenței” lor mai asemănătoare cu cea a oamenilor – și este de așteptat să includă chatboți și generatori de imagini.
Măsurile pentru acest nivel includ raportarea incidentelor grave cauzate de modele, cum ar fi decesul sau încălcarea drepturilor fundamentale și efectuarea de „testări contradictorii”, în care experții încearcă să ocolească garanțiile unui model.
Proiectul de lege a primit un răspuns mixt. Cele mai mari companii de tehnologie susțin public legislația în principiu. Amazon a spus că s-a angajat să colaboreze cu UE „pentru a sprijini dezvoltarea sigură, sigură și responsabilă a tehnologiei AI”, dar Meta lui Mark Zuckerberg a avertizat împotriva suprareglementării. „Este esențial să nu pierdem din vedere potențialul uriaș al inteligenței artificiale de a stimula inovația europeană și de a permite concurența”, a spus șeful afacerilor UE al companiei.