Creatorii unui sistem de inteligenţă artificială, care este capabil să scrie ştiri şi lucrări literare, au decis să nu îşi scoată produsul pe piaţă întrucât se tem că acesta ar putea fi utilizat pentru a face rău, scrie The Guardian.
OpenAI, compania de cercetări non-profit susținută de Elon Musk, Reid Hoffman, Sam Altman și alții, spune că noul său model de inteligență artificială, numit GPT2, este atât de bun, încât există riscul de a fi folosit în mod abuziv pentru a crea știri false. De aceea, echipa de cercetători a decis să dea publicității o versiune incompletă a soft-ului.
GPT2 este un generator automat de texte, de la câteva cuvinte la o pagină întreagă. Programul redactează în mod independent articole utilizând un set de date cuprinzând opt milioane de pagini web plecând de la doar câteva rânduri de text scrise de om. Atunci când primeşte o propoziţie, softul foloseşte metode statistice pentru a încerca să ghicească ce cuvinte vor urma, astfel că următoarele propoziţii vor suna coerent.
Programul de inteligenţă artificială s-a arătat capabil să compună proză, poezie precum şi texte jurnalistice. Programul poate, totodată, să facă rezumate şi să traducă din alte limbi. El poate fi folosit şi pentru a genera recenzii – negative sau pozitive – ale unor produse. GPT2 a folosit o bază de date care conține aproximativ 10 milioane de articole, selectate de pe site-ul social de agregare de știri Reddit, cu cel puțin trei voturi. Vasta colecție de texte măsura 40 GB, destul cât să stochezi circa 35.000 de copii ale cărții Moby Dick.
Această tehnologie este inovatoarea și aduce numeroase beneficii, însă poate fi utilizată în scopuri malițioase. OpenAI a decis s-o mai studieze, pe fondul temerilor că poate genera știri false, teorii ale conspirației sau texte xenofobe.
Organizaţia a spus că va publica studiul asupra noului sistem de limbaj numit GPT2, dar va păstra codul pe care l-au dezvoltat, alături de 3 dintre cele 4 modele dezvoltate.