Etica si inteligenta artificiala, de la ideal la realitatea de business
Ultimii 3 ani au marcat de facto intrarea intr-o noua realitate, numita de unii deja “epoca”, aceea in care inteligenta artificiala a devenit tehnologia dominanta in materie de business IT&C. Aparitia si adoptia ei in cadrul publicului larg a fost inca de la inceput una puternica, chiar abrupta, ChatGPT devenind aplicatia cu cel mai rapid nivel de adoptie din istorie (= nivelul de 100 milioane utilizatori), la acel moment, depasind inclusiv Tik-Tok.
Pe masura ce modelele AI din piata s-au diversificat ca urmare a investitiilor marilor corporatii Tech precum Google, Anthropic sau Meta, au inceput sa iasa la iveala informatii despre modul in care aceste business-uri si-au dezvoltat produsele lor AI, la inceput mai timid si oarecum pe sub radarul interesului public, capatand ulterior valente tot mai semnificative.
Toate acestea aveau in centru legaturi cu un domeniu uman fundamental, si anume etica, modul in care regulile de bun-simt si acceptabile pentru oameni au fost “negociate” pentru o mai puternica dezvoltare a AI-urilor. Asa ca in continuare vom aborda modul in care companiile Tech s-au raportat (sau nu) la etica atunci cand business-ul AI a inceput sa fie mai important decat tehnologia in sine.
La ce ne referim prin Etica in AI?
Inainte de a vedea in ce masura a existat sau mai exista o legatura intre tehnologia momentului si etica, trebuie sa definim acest din urma termen pentru a intelege la ce ne referim. Conform DEX online, etica intr-unul dintre sensurile sale e definita drept “ansamblu de norme in raport cu care un grup uman isi regleaza comportamentul pentru a deosebi ce este legitim si acceptabil in realizarea scopurilor”.
Mai explicit dar fara sa o dam prea mult in filosofie, etica inglobează acele idei, teorii si principii care se refera la norme acceptate de catre societate si care sunt, mai mult sau mai putin, respectate si transpuse in practica. Cu alte cuvinte, etica se refera la ceea ce e bine pentru oameni in general, ceva ce e de bun-simt, atat teoretic cat si practic (common sense ar fi termenul din engleza, mai potrivit in multe contexte).

Reamintesc pe aceasta cale ca debutul meu din postura de contributor pentru BlogDeIT.ro a fost tocmai prin intermediul unei mini-serii de 3 articole despre Etica in domeniul IT in care am dezvoltat mai mult latura teoretica si normativa exprimata prin coduri de etica in domeniul tehnologiei. Respectiva mini-serie poate fi consultata aici.
Revenind in actualitate, prin etica in domeniul AI vrem sa vedem in ce masura dezvoltarea acestor modele extrem de puternice si populare astazi a respectat sau au avut la baza norme de bun-simt, care sa se plieze pe regulile societatilor libere din aceasta lume, fara sa aduca atingere drepturilor, libertatilor si chiar a vietilor oamenilor. Vom lua cateva cazuri concrete pentru a vedea din mai multe unghiuri cum etica s-a pliat ori ba cu business-ul AI si a intelege mai bine contextul actual.
Misiunea OpenAI la inceputurile sale
Un prim caz despre care vom discuta si in care vom vedea cum etica a fost negociata si reimpachetata pentru a se plia pe noul model de business este cel al OpenAI. Sunt convins ca toata lumea stie ce reprezinta astazi OpenAI, fiind startup-ul condus de Sam Altman care in noiembrie 2022 a lansat modelul ChatGPT, acesta si numele startup-ului devenind sinonime aproape perfecte cu inteligenta artificiala in ansamblu.
Insa cred ca nu multa lume stie povestea de inceput a startup-ului OpenAI. Acesta a fost infiinta in anul 2015 cand Sam Altman si un alt om de afaceri super cunoscut si controversat astazi, Elon Musk, au infiintat OpenAI cu titlul de organizatie non-profit. Scopul declarat oficial al acesteia la inceputuri a fost cel de cercetare in maniera open-source a Inteligentei Artificiale Generale sau AGI, cum e mai cunoscuta.
Odata dezvoltata aceasta inteligenta artificiala super-potenta, ea ar fi urmat sa fie pusa la dispozitia oamenilor de rand fara nicio conditie financiara (ca doar erau o organizatie non-profit, nu?) si sa ofere o libertate cat mai mare de utilizare a acesteia, fara constrangerile tipice de care dadeau dovada marile corporatii cu produsele lor pe care incidental detineau chiar monopol, precum Google cu motorul sau de cautare.
Astfel, putem observa chiar un scop cat se poate de etic, legitim, poate chiar cu trasaturi nobile a unor tineri oameni de business in Tech, gata sa isi puna o parte din talent, bani si timp in slujba omenirii fara vreo rasplata ilicita sau “pe sub mana”. Insa timpul a trecut, iar treptat interesele de business s-au schimbat si ele pe masura ce si Sam Altman a inceput sa isi arate adevarata fata in materie de ce doreste sa obtina.
In 2019 se lanseaza OpenAI LP (capped-profit) pentru a putea atrage investitii mai mari pentru a dezvolta acel model AGI foarte dorit, acesta fiind si momentul in care Microsoft intra in scena si ofera o finantare de aproximativ 1 miliard de dolari micului startup. Cu un an inainte, in 2018, Elon Musk s-a retras din Consiliul de Administratie al OpenAI, devenind in anii recenti unul din cei mai mari critici ai noului model de business implementat de Sam Altman, centrat bineinteles pe obtinerea de profit cat mai mare.
Musk i-a acuzat virulent ca si-au abandonat misiunea initiala, de societate non-profit care sa dezvolte un sistem AI open-source si nu inchis. Evident, nu il putem suspecta acuma pe Elon Musk ca fiind cel mai de buna credinta om de pe planeta, dar partial are dreptate. OpenAI pornise foarte bine sub semnul eticii dezvoltarii tehnologiei in slujba oamenilor de pretutindeni, si a sfarsit prin a deveni mijlocul de manifestare a ambitiilor lui Sam Altman de a avea prim-planul acestei tehnologii inovative cu al sau ChatGPT, impregnand masuri pentru a obtine cat mai multi bani, primul pas concret fiind lansarea abonamentelor platite pentru ChatGPT.
Povestea mai pe larg o gasiti prezentat in acest video de pe canalul de YouTube al lui Dan Cadar de la ZonaIT. Iar cazul este unul revelator cum o misiune cu un inalt scop etic decade in a se transforma intr-un business rece si lipsit de empatie pentru oameni, singurul interes real fiind acela de a obtine finantari constante pentru dezvoltare, profit cat mai mare pentru actionari si celebritate in domeniul Tech cu statutul de pionier in domeniul LLM-urilor.
Desigur, nu trebuie sa fim complet idealisti. Ca o afacere sa mearga si sa prospere, trebuie sa aiba succes tradus in surse de venit puternice, altfel ar fi doar un proiect de apartament si atat, fara prea mare impact. Insa intre a oferi solutii la indemana (cu costuri reduse) pentru oameni versus a abandona orice principiu moral cu care ai pornit la drum si a pune totul in slujba profitului obtinut prin orice fel de mijloace e diferenta ca de la cer la pamant.
Astazi OpenAI (incorporat in Microsoft) este unul dintre principalii jucatori de pe piata AI si cauta sa obtine finantari cat mai mari pentru proiectele sale precum data center-ul ce doresc sa il deschida in Europa sau OpenAI Academy (despre care am vorbit in trecut aici pe blog). Insa dincolo de toate aceste fapte, ramane intrebarea: cum ar fi evoluat OpenAI daca ar fi ramas o societate non-profit cu proiecte de AI open-source si nu inchise, facute pentru oameni si nu pentru profit?
Cum au fost antrenate modelele AI?
Continuam discutia cu un alt topic, si anume cel al antrenarii modelelor AI care astazi au devenit parte din suita noastra de instrumente cotidiene. Aici situatia cea mai intalnita a fost aceea in care modele precum ChatGPT sau Gemini dar nu numai ele au fost antrenate cu datele de pe internet.
Cand ma refer la antrenare cu date de pe internet, ma refer la situatia in care dezvoltatorii acestor LLM-uri le-au conectat la internet si le-au dat mana libera, fara nicio restrictie sa preia informatiile respective, sa le stocheze si sa le incorporeze in sistemele lor statistice de compilare a datelor pentru a oferi output-uri cat mai de calitate la prompturile utilizatorilor.
Problema evidenta de etica care intervine in acest caz este cea a drepturilor de autor pentru continuturile respective. Oamenii care au creat respectivele date (articole, carti, imagini, muzica, aplicatii etc.) nu au fost consultati de catre marile corporatii pentru a-si da acordul ca munca lor sa fie folosita de-a gata pentru a face modelele LLM mai capabile. Si de aici apare problema de incalcare a eticii.
Practic avem puse la dispozitie mai multe aplicatii AI a caror dezvoltare stim ca a fost mai mult sau mai putin lipsita de consens etic. OpenAI, Google, Meta si Anthropic au avut parte de nenumarate procese in instantele de judecata federale din SUA pentru incalcarea drepturilor de autor in aceasta privinta. Un caz concret a fost in 2025, cand mai multe organizatii franceze pentru drepturile autorilor (inclusiv SNAC) au intentat un proces la Paris impotriva companiei Meta (Facebook), acuzand-o de utilizarea ilegala a continutului din circa 200.000 de carti (din baza de date Books3) pentru modelul Llama, calificata la momentul respectiv drept “jefuire monumentala” si “parazitism economic”.
Un alt caz de genul acesta a vizat OpenAI si copilul sau ChatGPT. Un grup de mai multi autori americani, inclusiv castigatorul de premiu Pulitzer Michael Chabon, au intentat actiuni colective in San Francisco impotriva OpenAI si Microsoft pentru folosirea operelor in compilatorul lui ChatGPT fara consimtamantul lor legal.
Exista insa si situatii “interesante” in care institutiile de justitie au interpretat altfel aceste spete. In iunie 2025, un judecator federal din San Francisco a decis ca Anthropic poate antrena modelul sau ClaudeAI cu carti protejate de politica de Copyright fara nicio permisiune, invocand drept argument asa-zisul “fair use”. Mai precis, utilizarea continutului original de catre AI transforma acea sursa initiala in ceva nou, fara a afecta piata originala, zise judecatorul respectiv. OpenAI a sustinut public ca e “imposibil” sa antrenezi modelele AI fara astfel de date, iar companii ca Meta sau Google apara si ele aceasta practica.
Argumentul mi se pare unul subred si periculos, intrucat eludeaza exact ideea de originalitate a ideilor produse de oameni. Daca eu vin cu un continut Y, si AI-ul doar il rastalmaceste dar in esenta e tot Y, atunci asta ar fi ceva nou, ceea ce este fals. Aici nu putem vorbi decat de o practica de business care incalca flagrant orice norma de etica fata de munca trecuta si prezenta a oamenilor care si-au postat continutul undeva pe Internet, mai la vedere sau nu.
Nivelul urmator care ne arata cum se intoarce roata este dat de ceea ce au facut chinezii cand au lansat modelul lor open-source DeepSeek. Acesta a fost antrenat preponderent cu ajutorul LLM-ului ChatGPT. Adica chinezii l-au pus pe DeepSeek sa converseze cu ChatGPT si astfel el a preluat ceea ce ChatGPT stia si facea deja cu datele luate de pe internet. Acest lucru a condus la acuzatii din partea OpenAI, dar nu face decat sa ne arata pana la ce limite se poate ajunge atunci cand interesul de business este mai mare decat scopul etic de a aduce contributii corecte pentru oamenii, cu solutii software dezvoltate legal.
Evident, nu m-as fi asteptat ca un stat precum China sa respecte norme de etica avansata in economia lor capitalist-centralizata, dar chiar si asa, cei care ajung sa sufere si sa se intrebe daca mai are rost sa fie originali si creativi sunt oamenii de rand. Ce rost are sa mai creez continut daca oricum il ingurgiteaza un AI care il va genera ulterior mai rapid, poate si mai atractiv?
La un pol opus, Uniunea Europeana prin politica se de reglementare transpusa in AI Act din 2024 limiteaza drastic folosirea continutului protejat de pe internet fara licenta clara, clasificand antrenamentul ca posibila “reproducere” si cerand exceptii doar pentru text si data mining cu opt-out. Aici e o bila alba pentru UE care chiar daca a ramas in urma cu dezvoltarea AI-ului dupa cum am vazut in articolul trecut despre cursa globala AI, macar doreste sa puna niste baza mai curate de dezvoltare si folosire a acestuia, mai apropiat de ce inseamna etica.
Cazurile mai grave si pana unde se poate ajunge?
Antrenarea unui model AI pe continut de pe internet fara licentele si acordurile necesare e o chestiune serioasa, nu contesta nimeni. Insa din pacate lucrurile nu se opresc aici cand vine vorba de modurile in care AI-ul ne poate influenta viata, la modul cel mai direct si propriu.
Recent, o data cu declansarea conflictului din Iran pornit de catre Statele Unite si Israel la finalul lui februarie 2026, in presa de peste ocean si ulterior si in Europa au aparut date si informatii potrivit carora tot mai multe tinte din Iran au fost analizate si selectate cu ajutorul unui model AI folosit de Pentagon. Wall Street Journal indica faptul ca ar fi vorba de modelul Claude AI al celor de la Anthropic, conflictul din Iran devenind astfel primul razboi in care tehnologia inteligentei artificiale devine nu doar un instrument, ci chiar un actor in sine, capabil sa ia unele decizii militare.
Asta este cu siguranta nivelul maxim de incalcare flagranta a oricarui principiu de etica, faptul ca Guvernele unor tari folosesc modelele AI pentru a distruge tinte din alte state si chiar pentru a ucide oameni nevinovati. Nu cred ca trebuie sa argumentez de ce acest lucru este periculos si trebui oprit, astfel incat sa nu deraiem cu totul ca specie si sa ne auto-distrugem la un moment dat prin intermediul acestor tehnologii care si-au pierdut scopul initial.
Din pacate, cazurile tragice in care AI-ul produce direct sau indirect pierderi de vieti omenesti nu se opresc aici. OpenAI a fost data in judecata in 2025, fiind acuzata ca ChatGPT a oferit output-uri complet deplasate care au indus iluzii psihice periculoase utilizatorilor acestuia, in unele cazuri vorbind chiar de sinucideri.
Procesele au fost intentate de catre 2 asociatii, Social Media Victims Law Center si Tech Justice Law Project si sustin in instanta ca OpenAI a lansat modelul GPT-4o (la vremea respectiva), compania fiind perfect constienta ca modelul nu fusese inca riguros testat si ignorand semnalele de alarma cum ca poate genera output-uri deplasate, cu impact psihologic negativ.
Dupa moartea adolescentului Amaurie Lacey in varsta de 17 ani, lucrurile s-au pus puternic in miscare in instanta si in societatea civila, existand reactii puternice. Acuzatorii sustin in plangerea lor ca moartea adolescentului si a celorlalte victime a fost “consecinta previzibila a deciziei intentionate a OpenAI si a lui Sam Altman de a reduce testele de securitate si de a grabi lansarea ChatGPT pe piata”. Datele complete pot fi consultate in stirea publicata de site-ul G4 Media.
Din aceasta perspectiva, e greu de mentionat pana unde se poate ajunge. Dar e evident ca fara respectarea unor standarde etice foarte clare, AI-ul poate sa faca si mult rau, nu doar sa ne faca mai productivi sau sa automatizeze task-uri manuale. Atunci cand mor oameni, deja nu mai vorbim de niste simple scapari justificate prin obtinerea de profit, vorbim de incalcarea celui mai important drept al oamenilor, cel la viata.
Cum iti poti sa seama daca continutul tau a antrenat AI-ul?
Ca o parte mai practica, am incercat sa vad daca exista vreun tool dedicat pentru a vedea daca continutul creat de tine pe internet (postari, articole, creatii artistice, proiecte pe GitHub etc.) a fost preluat si a antrenat vreun model AI. Din pacate, la momentul scrierii si publicarii articolului de fata, nu am gasiti nicio solutie valida de tip 1 tool standard dedicat.
Ceea ce am gasit au fost mai degraba metode indirecte pentru a incerca sa vedem daca exista suspiciuni de ingerinte ale AI-ului in continutul respectiv. O prima varianta ce o putem aplica este de a cauta textul sau imaginea noastra in data set-uri publice de pe internet ce se stiu sigur ca fiind surse de antrenare pentru AI. Aici avem ca optiuni The Atlantic – Books3 dataset search (pentru carti) sau Have I Been Trained? (pentru imagini), si daca gasim aici continutul nostru, atunci asta e un indiciu destul de puternic ca a fost folosit la antrenarea unor AI-uri.
A doua optiune indirecta este sa folosim un tool de tip detector AI (precum GPTZero) sau anti-plagiat (precum Copyleaks) si apoi sa intrebam anumite modele LLM lucruri legate de topicul respectiv si sa vedem daca analiza acestor tool-uri bate intr-o anumita proportie cu ceea ce a generat live acel LLM. Doar ca e un lucru ce nu poate fi 100% sigur, intrucat un LLM poate refactoriza masiv acele idei si sa le exprime complet diferit sau cu mai multe nuante. Cand il mai intrebam pe ChatGPT subiecte tehnice, invariabil imi dadea la surse si link-uri de pe BlogDeIT, lucru ce indica destul de evident accesul lui la articolele de pe blog.
Ca tips & tricks, ce putem face pe viitor pentru a vedea daca continutul generat de noi e preluat de AI este sa facem “data watermarking”, sa marcam continutul nostru inainte de publicare prin insertia de mici structuri / pattern-uri unice in texte sau imagini. Ulterior, daca un AI genereaza lucruri asemanatoare cu acele pattern-uri, atunci este un semn ca AI-ul e antrenat cu acele compozitii.
Care sunt consecintele pe termen lung?
Cu siguranta, lipsa unor limite, a unor teste clare de siguranta si a unor norme legislative construite pe piloni ai eticii vor conduce spre o realitate tot mai critica pentru oameni in relatia lor cu AI-ul. Aceasta tehnologie pe cat e de puternica si utila, pe atat poate fi de periculoasa daca e folosita pentru scopuri malefice, chiar si in numele securitatii si al apararii.
Pentagonul a oprit parteneriatul cu Anthropic dupa ce compania condusa de Dario Amodei a refuzat sa puna la dispozitia conducerii Armatei SUA modelul Claude pentru a fi folosit in supravegherea cetatenilor americani si in operatiuni militare impotriva tintelor civile. Aceste directii, dublate de halucinarile AI-ului antrenat oricum cu continut de pe Internet preluat fara licente de utilizare contureaza un tablou sumbru pentru omenire.
Etica nu este doar o marota, un slogan ce da bine, sa fie si ea acolo. Ea trebuie sa fie baza de pornire pentru orice idee noua, ca sa ne asiguram ca societate ca putem avea cu totii beneficii de pe urma ei. Si da, a face profit nu e un lucru rau in sine, este la urma urmei esenta economiei de piata. Intrebarea cheie este cu ce pret se poate obtine profitul? Chiar cu orice pret, fara sa ne mai pese de binele general al oamenilor?
Dezvoltarea si adoptia AI-ului a fost si continua sa fie una fulminanta. Insa vine la pachet cu un pret scump, platit se pare chiar si in vieti omenesti. Solutia echilibrata ar fi ca dezvoltarea sa fie una ceva mai lenta, sa fie testata riguros cu niste norme tehnice clare, statele sa aiba ragaz sa dezbata si sa adopte norme legislative pentru a reglementa domeniul AI si a-i stabili limite etice clare, ce se poate face si ce nu, si cu ce scop, iar oamenii si companiile sa aiba si ele timp sa se obisnuiasca natural cu aceasta noua tehnologie.
Suna idealist, dar nu e imposibil. Pe termen lung, daca nu suntem atenti, ne putem trezi ca AI-ul pe care il folosim curent ca sa ne facem task-urile cotidiene de fapt trimite date personale despre noi altor entitati (guverne, servicii de informatii, corporatii etc.) iar noi vom fi masa de manevra a acestora, fiind supravegheati 24/7. In numele securitatii nationale, unii vor spune ca e normal. Dar in numele eticii mai putem face ceva atunci, sa nu deraiem cu totul de pe traseul normalitatii?
Concluzii
In incheiere, stiu ca a fost un articol cu idei mai tari si pe alocuri mai dur decat de obicei. Scopul lui nu a fost sa deprim pe nimeni, dar aceste cazuri factuale deja sunt o marturie reala a ce poate sa faca inteligenta artificiala atunci cand nu mai are nicio limita etica impusa de noi, oamenii. Tehnologia a fost si ramane mereu un instrument, nu un scop in sine.
Cheia e sa ne decidem noi care sunt obiectivele pentru care o folosim si ce vrem sa obtinem. Etica trebuie sa fie si ea incorporata pentru a ne proteja de devierile invariabile ale unor sus-pusi care cred ca pot sa faca orice cand detin o anumita functie. Asa ca indemnul final esta sa raportam orice lucru ni se pare ca e in neregula cu tool-urile AI pe care le folosim, macar sa putem atrage in acest mod atentia.
Surse pe subiect
Video de la Zona IT despre scandalul dintre Pentagon si Anthropic privind folosirea modelului Claude
Un alt video de la Zona IT despre inceputurile OpenAI si misiunea sa initiala, pierduta ulterior in marjele profitului
Articol cu o intrebare buna: Quo vadis etica inteligentei artificiale? (Incotro se indreapta)
Despre progrese, provocari si reglementare in etica inteligentei artificiale
Un articol mai juridic despre AI si drepturile de autor
Inteligenta Artificiala si procesele in care a fost implicata, conform ziarului Adevarul
Despre ce a promis OpenAI ca nu va deveni si a devenit
Despre cazurile de sinucideri provocate de halucinarile AI-ului



