Scriitorii și artiștii trăiesc deja cu frica de acuzațiile că au creații care ar putea fi generate folosind inteligența artificială. Între timp, Harry Potter, Bohemian Rhapsody, Biblia, sau alte creații umane se presupune că sunt generate de AI! Cum s-a ajuns până aici.
„Nu poți avea încredere în detectoare AI, cum ar fi ZeroGPT. Adesea ei etichetează greșit lucrările umane celebre ca fiind generate de AI, inclusiv versurile Queen’s Bohemian Rhapsody, fragmente din Harry Potter sau Biblie. Anterior, detectoarele AI au etichetat greșit Constituția SUA”, scrie jurnalistul Ernestas Naprys în cybernews.
Dar poate că detectoarele AI nu sunt complet greșite. Deoarece nu poți avea încredere nici în chatboții AI, aceștia vor recrea aceleași copii exacte ale acelorași lucrări. Pentru aceasta, ar putea fi necesară o inginerie creativă promptă pentru a ocoli filtrarea răspunsurilor din ce în ce mai complexă și protecția împotriva încălcării drepturilor de autor.
În mod similar, atunci când sunt solicitați cu un fragment disponibil public din Harry Potter sau din Biblie sub pretenția de a scrie o poveste, unii chatbot reproduc textul. Ilustrarea riscului ca o parte din conținutul generat să fie protejat prin drepturi de autor, după cum mai evidențiază Naprvs.
S-a ajuns la un paradox de noaptea minții: Cele mai recente iterații ale LLM-urilor cu cele mai bune performanțe vor refuza adesea să se conformeze, dar cunoștințele sunt încă acolo. Chatbot-ul însuși poate încerca să evalueze dacă conținutul este scris de oameni și să concluzioneze că Harry Potter este prea asemănător cu Harry Potter și, prin urmare, trebuie să fi fost scris de AI.
Inteligența artificială: „Îmi pare rău, frate! Nu este posibil”
Potrivit jurnalistului, când nu există protecție prin drepturi de autor, există mai puține bariere, iar modelele AI au mai multă încredere în reproducerea operelor umane. Chiar dacă este vorba despre Biblie.
Se pare că modelele AI au supraadaptat datele în timpul antrenamentului. Ele imprimă cunoștințele despre lucrările umane în parametrii lor. Și acum, nici măcar nu poți avea încredere în oameni online. Au folosit AI? Au folosit un detector AI? Sau poate că și-au generat povestea folosind AI, dar au folosit și instrumentele care ajută la „umanizarea” textului și ocolesc detectarea AI?
Da, și acestea există deja. Unul dintre instrumente susține că „poate umaniza cu ușurință textul AI în conținut autentic și original nedetectat de…majoritatea detectoarelor”.
„Am încercat să umanizez Bohemian Rhapsody, scrisă de AI, dar tot ce am primit de la inteligența artificială a fost: „Îmi pare rău, frate! Nu este posibil”. Nici nu pot avea încredere în asta. Am rămas blocat cu versiunea robot a cântecului”, mai spune Ernestas Naprys.
Inteligența artificială și teoria Internetului mort
Teoria Internetului mort pare a fi auto-împlinită și ne lasă într-o versiune și mai proastă a „realității sparte” în care nu poți avea încredere în nimeni sau nimic, după cum mai notează jurnalistul.
Un specialist în relații publice susține că detectorii AI fac munca scriitorilor extrem de dificilă. Creatorii suferă atunci când munca lor, chiar și articolele scrise la sfârșitul anilor 1990, este adesea clasificată greșit ca fiind generată de AI.
„Ca scriitor care lucrează astăzi, îmi petrec cea mai mare parte a timpului încercând să trec de detectare AI în loc să mă concentrez pe calitate. Articolele care obișnuiau să dureze câteva ore acum durează mai mult, deoarece trebuie revizuite din nou și din nou pentru a trece de detectarea AI”, a spus persoana și chiar a împărtășit câteva sfaturi despre cum să ocoliți detectarea AI. „Vreau să cred sinceritatea lor, dar instinctul îmi spune că ceva nu este în regulă cu comentariul. Trece toate testele de detectare AI. Cu toate acestea, atunci când le vizitați site-ul sau contul LinkedIn, acestea sunt pline de conținut generat de AI, imagini și chiar textul substituent „Lorem Ipsum”, mai punctează Naprys.
„Se pare că AI le-a făcut munca mai ușoară decât dificilă, așa că am decis să nu includ comentariul lor în articolul meu. Sau am făcut-o? Nici măcar nu poți avea încredere în mine”, adaugă jurnalistul, cu umor.
A greși face parte din AI!
Cu toate acestea, problema ar putea fi reală, iar scriitorii se luptă cu adevărat cu falsele pozitive ale detectării AI. Erin Farrell-Talbot, consultant în comunicare și freelancer la Farrell Talbot Consulting, a împărtășit o poveste despre modul în care detectarea AI poate afecta reputația profesională. Ea a ajutat odată un licean să editeze o lucrare de cercetare despre cel de-al Doilea Război Mondial, care a fost semnalată greșit din cauza includerii citatelor președintelui Truman și a altor citate. În mod similar, propria sa lucrare, un interviu în domeniul sănătății, nu a trecut de verificarea AI, în ciuda mai multor runde de modificări.
„Aceste instrumente AI creează rezultate false pozitive și este înnebunitor”, a spus penbtru Farrell-Talbot. Edward Tian, CEO-ul GPTZero, un popular detector AI, a împărtășit o explicație a motivului pentru care detectorii AI pot fi inexacți. „O mulțime de detectoare AI greșesc în ceea ce privește identificarea mai multor pozitive false. Uneori, acest lucru este o modalitate de a vă asigura că lucrările scrise prin inteligență artificială nu sunt ratate și, uneori, este pur și simplu rezultatul modului în care este antrenat software-ul”, a spus Tian.
Modele de limbaj mari noi și din ce în ce mai sofisticate apar acum în fiecare zi, de la Llama la ChatGPT sau detectoarele Claude și AI sunt de obicei limitate la ceea ce au fost instruite, ceea ce le poate scădea acuratețea. „Deci ajută să folosiți un instrument care este instruit pe cât mai multe modele lingvistice posibil”, se arată în comentariu.
Inteligența artificială are voie să copieze?
Instrumentul GPTZero este foarte încrezător că comentariul CEO-ului lor este în întregime uman. Unii concurenți nu sunt atât de siguri.
În analiza lui complexă, jurnalistul a ajus să întrebe însuși ChatGPT în legătură cu această problemă. Dar chiar dacă este adevărat, este un lucru rău? Dacă experții umani revizuiesc, susțin și își pun numele în spatele conținutului, este sursa originală relevantă? ChatGPT, care poate fi la fel de bine autorul inițial al acestor comentarii, cu siguranță nu crede așa.
„Atunci când textul generat de inteligența artificială este revizuit și aprobat de experți, accentul se mută de la autor la credibilitate. Aprobarea umană poate valida acuratețea informațiilor, făcând sursa mai puțin relevantă decât aprobarea expertului”, explică chatbot-ul. Problema este că aceasta este încă o zonă gri legală. S-ar putea să nu pretind că am scris Bohemian Rhapsody, chiar dacă chatbot-ul mi-a generat-o.
Ben Michael, avocat la Michael & Associates, explică că folosirea materialelor protejate prin drepturi de autor pentru a instrui LLM este încă un subiect juridic dezbătut și numeroase procese sunt pe rol împotriva companiilor de AI. „Atunci când un om copiează o lucrare deja existentă, este considerată o încălcare a drepturilor de autor. Cu toate acestea, atunci când un program copiază munca deja existentă și o folosește pentru a „învăța”, nu este la fel de alb și negru cumva”, a spus Michael. „Cea mai mare întrebare acum este dacă ne interesează mai mult să protejăm creativitatea umană reală prin aplicarea legilor privind drepturile de autor care sunt deja înregistrate sau dacă suntem cu toții de acord să externalizăm acea creativitate către un program”.
AI generează în mod neintenționat text care seamănă mult
Neil Sahota, consilier AI al Națiunilor Unite și CEO al companiei de cercetare AI ACSILabs, a remarcat, de asemenea, că nu este legal ca un chatbot AI să genereze o copie exactă a versurilor melodiilor protejate prin drepturi de autor sau a extraselor dintr-o carte fără autorizația sau licența corespunzătoare.
„Riscul legal principal este dacă AI generează în mod neintenționat text care seamănă mult sau reproduce conținut protejat prin drepturi de autor. Dacă utilizatorii publică sau profită fără să știe material produs de AI care oglindește lucrări protejate prin drepturi de autor, ei s-ar putea confrunta cu acuzații de încălcare. Deținătorii drepturilor de autor pot solicita daune”, a spus Sahota.
Chatboții AI învață din cantități masive de texte scrise de oameni disponibile online, dintre care unele pot fi protejate prin drepturi de autor, iar altele complet nesigure. La fel și oamenii.
„Deoarece LLM-urile sunt instruite pe seturi vaste de date pentru a înțelege și a produce text asemănător omului, ei generează adesea conținut care seamănă mult cu scrisul uman, ceea ce face ca acest paradox să fie exponențial mai dificil de rezolvat. Adevărul sincer este că nu există o soluție perfectă pentru acest paradox”, se arată în comentariul lui Sahota. Consilierul ONU consideră că detectorii AI nu ar trebui să fie arbitrul final în identificarea conținutului AI.
„În situațiile în care munca umană este semnalată, trebuie să existe un proces de apel care să includă supravegherea umană. Acest lucru le-ar permite oamenilor să conteste rezultatele detectorilor AI, asigurându-se că creatorii autentici nu sunt penalizați în mod nedrept”, crede Sahota.
Citiți și: Ziua Internetului, între extaz și agonie. Dan Pavel: „Internetul nu există”