Etica şi Inteligenţa Artificială

Opt probleme de etică în Inteligenţa Artificială


Distribuie articolul

Dezvoltarea Inteligenţei Artificiale pune întrebări şi implică probleme existenţiale care deocamdată nu au răspuns. Acest articol acoperă, măcar în parte, aceste dileme morale.

Încă din vremurile Greciei Antice, studiul filozofiei a fost considerat de majoritatea populaţiei ca o ocupaţie cu prea puţină aplicaţie practică. Discuţiile despre ceea ce este bine şi ce e rău au fost de prea multe ori lăsate pe seama „filozofilor”, în mare parte deoarece orice decizie ar fi fost luată, lumea de zi cu zi nu ar fi fost afectată în niciun fel. Chiar şi 2.000 de ani mai târziu, în zilele noastre, filozofia este considerată mai mult ca un hobby decât o profesie, iar absolvenţii facultăţilor de profil au perspective foarte limitate în continuarea carierei, în special în afara zonelor teoretice.

Acest lucru însă este foarte posibil să se schimbe odată cu creşterea puterii aplicaţiilor din domeniul Inteligenţei Artificiale (AI), precum şi înglobarea lor în produsele folosite zilnic de milioane de utilizatori. Noi apariţii în cultura de masă, precum serialul Westworld sau filmul nominalizat la Oscar Ex Machina au adus domeniul într-o vizibilitate publică puternică, dar prezintă probleme mult prea îndepărtate ale câmpului de studiu, cum ar fi dreptul roboţilor la viaţă sau definirea unei fiinţe conştiente. Deşi sunt întrebări bune de pus, momentan sunt mult prea îndepărtate de capabilităţile noastre tehnologice. În schimb, în prezent apar dileme etice mult mai mari, care umbresc ca implicaţii problemele existenţiale din filme, iar răspunsul la aceste întrebări are puterea de a ne schimba viaţa chiar şi în următorii câţiva ani. Acest articol va acoperi o parte din dilemele morale curente, precum şi implicaţiile acestora în viaţa noastră de zi cu zi.

O mare parte din muncitorii din fabrici, şoferi şi analişti sunt în pericol să îşi piardă jobul în următorii 10-15 ani în favoarea sistemelor AI

Pentru a face acest lucru, mai întâi ne trebuie puţin context, şi anume să înţelegem cum funcţionează Inteligenţa Artificială în linii generale. Majoritatea aplicaţiilor necesită din partea unui programator o analiză a problemei şi dezvoltarea unui plan de a o aborda. Acest plan este apoi aşezat în cod, instrucţiune cu instrucţiune. Algoritmii din AI reuşesc să înveţe singuri cum să rezolve problema, cu condiţia să le oferim destule exemple. Modul în care arhitectura acestor algoritmi funcţionează urmează în manieră simplificată următorul model:

  1. Decidem care este exact scopul algoritmului. De exemplu, să detecteze faţa unei anumite persoane, un anumit tip de floare sau chiar o tranzacţie frauduloasă.
  2. Îi oferim algoritmului un număr cât mai mare de date în care se găseşte de fiecare dată ceea ce căutăm, numit set de date pozitive.
  3. Adăugăm acestor date un număr absolut uriaş de date în care ceea ce urmărim nu este acolo, dar ar putea fi – date negative. De exemplu, imagini cu feţele multor alte persoane, sau întregul registru de tranzacţii al unei bănci.
  4. Rulăm algoritmul, iar acesta învaţă singur care sunt diferenţele dintre cele două seturi de date, precum şi modul în care să îşi dea seama de aceste diferenţe

Însă există două probleme cu acest model. Primul se referă la numărul imens de date de care are nevoie un astfel de sistem AI ca să devină mai bun decât un om la detectarea caracteristicilor. A doua problemă, şi cea mai serioasă, este că datele de antrenament trebuie în prealabil asigurate de oameni. Un algoritm AI nu poate fi decât la fel de bun ca datele pe care se antrenează. Noi trebuie practic să îi arătăm exemple cu ce ar trebui să detecteze şi ce ar trebui să ignore, până în momentul în care acesta devine suficient de bun încât să facă asta singur.

(1). Astfel ajungem la prima dilemă cu care avem de-a face în acest domeniu. Din moment ce oamenii sunt cei care trebuie să selecteze primii aceste date, este inevitabil ca orice prejudecăţi sau înclinaţii ar avea aceştia, să se strecoare în datele selectate. Astfel, şi persoanele care vor ajunge să folosească aplicaţiile vor fi expuşi la aceleaşi prejudecăţi. Unele dintre ele pot fi prejudecăţi minore, însă altele sunt chiar adevăruri pe care încercăm ca societate să le înlăturăm, cum ar fi faptul că inginerii şi antreprenorii sunt predominant bărbaţi. O astfel de aplicaţie ar afişa invitaţii la cursuri de inginerie într-o pondere mai mică femeilor, ceea ce nu ar face decât să perpetueze astfel de stereotipuri. Problema fundamentală a Inteligenţei Artificiale este că, de multe ori, face o radiografie la rece a societăţii în care trăim, fără a avea un context cultural. Astfel riscă să hrănească prejudecăţi pe care noi ca oameni încercăm în mod activ să le înlăturăm.

Gândiţi-vă ce s-ar întâmpla dacă astfel de prejudecăţi ar ajunge într-o aplicaţie internaţională majoră, folosită de peste un miliard de oameni. De fapt, în vara anului 2015 exact acest lucru s-a şi întâmplat, atunci când algoritmul Google de recunoaştere a imaginilor a recunoscut greşit o serie de fotografii cu persoane de culoare ca fiind imaginile unor gorile. Cel mai probabil, această eroare a survenit datorită faptului că setul de date de antrenament folosit pentru reţeaua neuronală a algoritmului nu conţinea destule imagini cu persoane de culoare, o greşeală din partea programatorilor destul de uşor de comis. Însă această mică omitere a avut consecinţe semnificative în materie de imagine publică pentru Google.

(2). O mai veche problemă în filozofie este denumită „problema tramvaiului” (trolley problem), fiind enunţată în felul următor: Un tramvai fără frâne se îndreaptă către cinci persoane legate de şina acestuia. Avem în faţa noastră un schimbător de macaz, cu care putem trimite tramvaiul pe o şină paralelă, pe aceasta fiind legată o singură persoană. Întrebarea este: Ar trebui să lăsăm tramvaiul să omoare cele cinci persoane, sau ar trebui să intervenim şi să omorâm o singură persoană pentru a salva cinci altele? Au fost scrise cărţi întregi pe baza acestei întrebări, iar orice răspuns ar fi oferit problemei, ar implica o sumedenie de alte probleme etice.

De-a lungul istoriei, aceasta dilemă a rămas pur teoretică, la fel şi câmpul filozofiei în general, însă lucrurile s-au schimbat dramatic odată cu apariţia maşinilor autonome. Aceasta deoarece problema poate fi enunţată şi în felul următor: conduci pe un pod, iar maşina ta începe să alunece. Poţi să virezi la stânga, către siguranţă, dar loveşti un microbuz cu copii. Sau poţi să virezi la dreapta şi să cazi în prăpastie, dar salvezi copii. Momentan ne vedem ca societate în faţa situaţiei de a putea implementa un răspuns universal la această dilemă, însă noi înşine nu ştim care este acesta. Există deja pe drumurile noastre maşini dotate cu „instincte”, ca de exemplu maşinile electrice Tesla. Acestea pot să manevreze maşina în mod automat dacă detectează un pericol iminent, iar tehnologia fiind făcută public, ne putem aştepta să vedem mult mai multe astfel de maşini pe străzile României în viitorul apropiat. 

Astfel ajungem la cea de-a doua problemă în AI. Deoarece tehnologia avansează mult mai rapid decât poate etica noastră colectivă să facă faţă, cum putem lua decizii universal valabile? Este inevitabilă situaţia în care va trebui să decidem ce va face maşina de pe pod, iar apoi 100% din cazuri vor avea exact acelaşi sfârşit. Întrebarea în schimb rămâne: care ar trebui să fie acestă acţiune? Momentan, lumea programatorilor a decis să urmeze cursul naturii, şi a implementat ce se poate numi un „instinct de autoconservare” al maşinilor. Acestea urmează să încerce pe cât posibil să se salveze singure, şi împreună cu acestea, să îşi salveze pasagerii.

(3). Să presupunem, de asemenea că o maşină autonomă circulă pe stradă. Nu are niciun pasager la bord, iar pentru a evita un accident loveşte o persoană, care apoi are nevoie de spitalizare. Problema majoră care se pune în acest caz este: Cine este răspunzător din punct de vedere legal pentru ceea ce s-a întâmplat? Proprietarul, care nici nu era acolo? Firma care a produs maşina? Programatorii firmei? Dacă dăm curs acestei logici, va fi aproape imposibil să avem vreodată maşini autonome, deoarece riscurile comercializării acestora ar fi prea mari. Am putea de asemenea să oferim entitate legală acestora, iar atunci când iau parte la evenimente, să le fie retras dreptul de circulaţie. Problema acestei soluţii ar fi faptul că practic toate maşinile vor fi copii identice una alteia, deci va fi foarte greu să argumentezi identitatea unei maşini autonome.

Poate răspunsul corect va fi acceptarea accidentelor ca o parte necesară din viaţă. Până la urmă, o maşină autonomă nu trebuie sa fie perfectă, ci doar mai bună decât un şofer uman. Iar acest lucru se întâmplă chiar şi în momentul de faţă. Toate prototipurile testate de Google sau Tesla au fost net superioare contracandidaţilor umani. Iar până la urmă, vorbim despre un sistem care nu oboseşte, nu consumă alcool, are vedere 360° şi poate funcţiona 24 de ore pe zi. Însă vom fi pregătiţi de ziua în care un accident major care va implica o maşină autonomă se va solda cu o fatalitate? Şi vom fi destul de pregătiţi, încât să nu interzicem tehnologia cu totul?

(4). Vara anului 2015 a mai avut o surpriză pentru inginerii din domeniu, când o maşină marca Jeep a devenit primul automobil al cărui sistem să fie spart de la distanţă. În timp ce hackerii reuşeau să schimbe clima, postul de radio şi viteza ştergătoarelor de parbriz, aceştia au afişat o poză cu ei înşişi pe display-ul principal. Apoi, în timp ce maşina rula pe autostradă, hackerii au reuşit chiar să oprească motorul maşinii fără ca aceştia să fie măcar în vecinătatea ei, oprind atât maşina, cât şi traficul din spatele ei.

Din fericire, cei doi hackeri nu aveau intenţii criminale, ci doar făceau teste să vadă cât de sigure sunt maşinile pe care le conducem. Dar totuşi se ridică un mare semn de întrebare. Viaţa noastră trece din ce în ce mai mult pe mâna sistemelor autonome. Unde ar trebui să ne oprim, pentru ca un grup de hackeri cu intenţii criminale să nu ne poată ruina fie ca indivizi, fie ca societate? Va trebui să cântărim cu grijă riscurile şi beneficiile, deoarece niciodată un grup atât de mic nu a putut să aibă chiar şi potenţial, posibilitatea  de a distruge atât de mult. Aceleaşi argumente se aplică şi votului electronic, unde sunt întotdeauna şanse mici, dar existente, ca un grup mic de hackeri să influenţeze alegerile unei întregi naţiuni.

Problema hackingului în domeniul Inteligenţei Artificiale este un pic diferită totuşi, deoarece datorită modului de învăţare automată, de multe ori nici măcar inginerii care au conceput sistemul nu pot înţelege cum funcţionează acesta. Este totuşi o sabie cu două tăişuri, deoarece pe de o parte o persoană cu intenţii rele are şanse mici să poată sparge sistemul. Dar dacă reuşeşte totuşi să o facă, devine extrem de dificil de detectat şi mai ales reparat o problemă de această natură.

Momentan, lumea programatorilor a decis să urmeze cursul naturii şi a implementat ce se poate numi un „instinct de autoconservare” al maşinilor. Acestea urmează să încerce pe cât posibil să se salveze singure, şi împreună cu acestea, să îşi salveze pasagerii

(5). China momentan este într-un război deschis cu Statele Unite pentru dominaţia câmpului de Inteligenţă Artificială. Guvernul chinez varsă sume semnificative de bani în cercetare, iar rezultatele nu întârzie să apară. Această ţară, în acelaşi timp, încearcă să implementeze un sistem în care fiecare rezident primeşte un scor de „bună purtare” cetăţenească. Pe lângă faptul că un algoritm AI poate cu uşurinţă să supravegheze fiecare mişcare în mediul online, pentru care se primesc punctaje, o echipă chineză de cercetători a făcut publică o performanţă majoră. Aceştia au putut extrage identitatea a peste 100 de persoane dintr-o singură sursă video, şi au putut urmări automat mişcările acestora. O performanţă îngrijorătoare din partea unui guvern care te punctează în funcţie de prietenii pe care îi ai.

Urmând acest trend, nu poate fi departe ziua în care intimitatea noastră nu va dispărea doar din interior, cum se întâmplă deja cu telefoanele mobile, ci şi din exteriorul bulei noastre. Ca un revers al medaliei, acelaşi sistem de supraveghere poate fi  de asemenea conceput să detecteze automat infracţiuni şi să transmită instant identitatea infractorilor. Ca orice tehnologie, Inteligenţa Artificială are două tăişuri, iar rezultatele depind foarte mult de persoanele în mâna cărora se află aceasta. Ca şi cu armamentul nuclear, va trebui să fim precauţi în grija cui o vom lăsa.

(6). Probabil cea mai mare problemă în materie de etică a Inteligenţei Artificiale se regăseşte în domeniul armelor autonome. Multe prototipuri au fost demonstrate, de la drone care transportă şi mânuiesc pistoale, la roboţi care traversează în mod autonom păduri şi au la dispoziţie putere de foc. Momentan, tehnologia este destul de avansată încât să ne permită să dezvoltăm şi chiar să folosim pe câmpul de luptă arme autonome. Ceea ce, desigur, este visul oricărei armate. O armată modernă ar putea teoretic să poarte un război întreg fără a-şi pune niciun moment propriii oameni în linia de foc.

De aceea, consiliul ONU a înfiinţat un departament special pentru a iniţia discuţiile pe seama armelor autonome, şi eventuala interzicere a acestora. În cadrul acestui consiliu, ţările membre ar putea să voteze şi să stabilească reglementări pentru aceste arme. Problema este că lucrurile avansează pe plan politic atât de greu, încât acesta este încă la capitolul rezervat definirii a ceea ce înseamnă o armă autonomă.

În acelaşi timp, armata Statelor Unite este din ce în ce mai dependentă de dronele acestora, care pot lansa proiectile în mod foarte precis, sau monitoriza obiective cu uşurinţă. Toate acestea de la distanţe şi altitudini surprinzător de mari. Aceste drone sunt momentan pilotate de pe partea opusă a planetei, iar majoritatea sistemelor sunt automatizate. De la procesele de decolare, aterizare şi controlul zborului, până la sistemele de achiziţie a ţintelor, totul este făcut de către AI. Practic, aceste drone pot cu uşurinţă să funcţioneze fără ajutorul unui pilot. Cu toate acestea, armata preferă momentan ca un om în carne şi oase să fie cel care apasă pe, acum metaforicul, trăgaci.

Totuşi, câmpul de luptă este un loc fără reguli sau legi, unde situaţii complexe se întâlnesc la tot pasul. Momentan nici nu putem să ne gândim să implementăm o conştiinţă unui sistem, deci este foarte posibil ca o simplă eroare de comunicare să lanseze un set de arme automate într-un măcel fără discriminare faţă de populaţia civilă. În acelaşi timp, este dificil de imaginat o metodă în care putem obţine milioanele de seturi de date conţinând atât civili cât şi ţinte militare, date de antrenament indispensabile dezvoltării unui astfel de sistem.

Pe lângă această lipsă de date, oricine a folosit un sistem de autocorect ştie probabil că reţelele de AI întâmpină dificultăţi în a înţelege contextul unor conversaţii. Prima dată când sunt lansate, acestea nu sunt foarte performante, bazându-se pe interacţiuni repetate cu milioane de utilizatori pentru a se îmbunătăţii singure. Elon Musk a introdus în sistemele de conducere automată a maşinilor Tesla un modul de observare a reacţiei şoferilor în funcţie de şoseaua pe care conduceau. Seara, maşinile uploadau datele culese către un server central, care le analiza şi îmbunătăţea cu ajutorul lor sistemul de automatizare. Odată ce învăţase destul de multe, acest sistem nou era trimis sub forma unui update către maşini. În acest fel, Tesla a reuşit în câteva săptămâni să creeze un sistem extrem de performant şi care se poate întreţine singur.

Problema survine din faptul că nu putem să folosim o astfel de abordare şi în cazul armelor autonome. În primul rând datorită faptului că, din fericire, nu avem atât de multe conflicte pe care să le putem observa. În al doilea rând, orice greşeală comisă de o armă automată va duce automat la pierderea minim unei vieţi. Iar AI se bazează foarte mult pe a greşi în procesul de învăţare. Iar nu în ultimul rând, este dificil de imaginat ce s-ar întâmpla cu o armată întreagă luată în primire de către un grup de hackeri.

Cu toate acestea, ironia actuală rămâne în picioare. Avem arme extrem de inteligente care deja iau parte la acţiunea de pe câmpul de luptă. În acelaşi timp, avem consilii de securitate care sunt atât de în urmă cu politicile, încât nici nu reuşesc să pună o definiţie pe chiar armele care fac obiectul lor de activitate, arme care deja încep să apară în folosinţă în mai multe părţi ale lumii.

(7). O problema majoră, pe care nu putem să o ignorăm, este cum va arăta umanitatea în era AI. Este un lucru sigur faptul că o sumedenie de locuri de muncă vor fi pierdute în favoarea sistemelor inteligente. Probabil niciun alt domeniu nu este mai susceptibil la schimbare cum este cel al transporturilor, iar conducătorii de Taxi, camioane şi autobuze vor fi primii care vor fi daţi afară de către contra-candidaţii lor, care nu cer salariu, lucrează non-stop şi greşesc mult mai rar. Probabil cea mai mare piedică pentru această mutare este percepţia umanităţii în general asupra unor astfel de mijloace de transport, dar la fel de urât au fost privite pe rând şi trenurile, automobilele şi avioanele. Iar acum viaţa noastră ar fi complet schimbată fără ele.

Desigur, chiar şi cu o perioadă de şomaj crescută, umanitatea se va redresa, aşa cum am făcut-o de atâtea ori până acum. De la revoluţia industrială până la inventarea Excel-ului, tehnologii majore au produs perturbaţii majore. Dar umanitatea a avut de fiecare dată mult mai mult de câştigat atât din ieftinirea produselor, cât şi din eliberarea minţilor acelor angajaţi care îndeplineau sarcini repetitive, iar apoi au fost liberi să se reprofileze în domenii mult mai bune. De asemenea, pierderea unui astfel de loc de muncă este în general un lucru bun pe termen lung, deoarece acestea sunt obositoare, uneori periculoase şi în niciun caz joburi care să ofere satisfacţie îndelungată.

Însă întrebarea apare inevitabil, dacă ar trebui să pregătim terenul pentru astfel de modificări în structura socială. Mulţi au cerut o „taxă de robot” pentru a asigura cumva această trecere, şi a proteja viitorii şomeri, iar printre voci se numără şi Bill Gates. Cu toate acestea, în momentul în care software-ul Excel a lăsat mulţi analişti fără un loc de muncă, nu a fost cerută nicio taxă adiţională pe el.

Însă această schimbare este foarte posibil să fie absorbită cu succes de umanitate. Ca un simplu exemplu, o mare parte din joburile care sunt muncite în zona Pipera/Aurel Vlaicu din Bucureşti nici măcar nu existau în urmă cu 20 de ani. Probabil, mai ales datorită pierderilor de locuri de muncă din uzine şi mine, oamenii au putut să migreze către noi joburi unde le sunt puse în folosinţă mult mai bine talentele, şi de ce nu, sunt mai bine plătite şi mai sigure.

În special în România, multe locuri de muncă se vor pierde în favoarea sistemelor AI. Practic, o mare parte din muncitorii din fabrici, şoferi şi analişti sunt în pericol să îşi piardă jobul în următorii 10-15 ani. Dar este oare în regulă să oprim o viitoare Renaştere care poate izvorî din AI doar pentru a ne salva joburile curente? Astfel, cum o populaţie mult mai puţin implicată în agricultură a putut să se concentreze mai mult pe ştiinţe, şi astfel să revoluţioneze umanitatea, tot aşa este posibil ca noii şomeri să transforme societatea în moduri încă necunoscute. Ar fi corect să răpim generaţiilor viitoare posibilitatea de a fi operaţi de chirurgi-roboţi excepţionali, doar pentru ca bunicii lor să fi avut un loc de muncă sigur? Este o întrebare la fel de greu de pus, pe cât este de uşor de răspuns. Se întrevede posibilitatea ca generaţia noastră sau generaţia viitoare să fie o generaţie de sacrificiu pentru o umanitate cu mult îmbunătăţită.

(8). În ziua de astăzi, totuşi, Inteligenţa Artificială este folosită destul de mult şi în domenii deloc sustenabile. Pieţele financiare, de exemplu, sunt puternic afectate de tranzacţii automate. Nu se cunoaşte momentan cât de răspândită este folosirea de strategii HFT (high-frequency trading), unde algoritmii AI se luptă unul împotriva altuia pentru a răspunde la mici modificări ale pieţei. Problema acestor strategii este că teoretic pieţele pot deveni un câmp de luptă virtual pentru aceşti algoritmi, şi pot modifica valorile pieţei în moduri greu de înţeles. Din moment ce fiecare bancă sau intermediar îşi apără secretele cu ferocitate, este greu de estimat cât de mult ne afectează aceste sisteme pieţele.

Dar uneori, erori ale acestora ne oferă o mică perspectivă în interiorul imensităţii de tranzacţii automate. Pe data de 6 mai 2010 indicele american Dow Jones a căzut cu aproximativ 1.000 de puncte, sau 9% în câteva minute, doar pentru ca numai câteva minute mai târziu nu doar să îşi revină, ci să fie şi pe creştere. A fost cea mai mare mişcare într-o singură zi din istoria bursei americane, iar faptul că această perturbaţie a durat numai câteva minute este cu atât mai terifiant.

Acesta este doar unul din multiplele evenimente care ne dau indicii despre faptul că probabil următoarea bulă de pe piaţă va fi prima din istorie care nu va mai fi generată de oameni, având de asemenea posibilitatea de a fi şi cea mai rapidă cădere din istorie, aşa cum numai un sistem de Inteligenţă Artificială ar putea să îl producă.

***

Şi totuşi, unde ar trebui să oprim tehnologia? În primul rând, ar trebui să existe limite asupra domeniilor în care vrem să implementăm AI? Watson de exemplu, un proiect IBM construit pentru a câştiga jocul American televizat Jeopardy! a sfârşit câţiva ani mai târziu prin a fi cel mai bun medic diagnostician din lume. Având acces la întreaga bază de date a cunoştinţelor umanităţii, acest proiect a ajuns să ofere diagnostice mai precise decât oricare alt medic ar putea să o facă singur.

Trenul Inteligenţei Artificiale pare în momentul de faţă imposibil de oprit

Dacă se va dovedi că un judecător automat oferă rezultate mai bune decât unul în carne şi oase, vom fi oare pregătiţi ca societate să acceptăm un sistem juridic în Cloud? Chiar şi cu o rată mare de adoptare a tehnologiei, aşa cum este societatea românească, este greu de crezut că va fi acceptat prea curând un astfel de sistem. Ceea ce ne aduce la o nouă problemă.

Cum se pot adapta legile unei ţări, inclusiv a noastră, să facă faţă unei asemenea schimbări? De multe ori ne este dificil să extindem legislaţia existentă în domenii noi. Problemele de optimizare ale site–urilor de social media ne pot ţine cu uşurinţa în faţa ecranelor cu ajutorul ştirilor false sau ale informaţiilor superficiale. Până la urmă, dacă asta îi cerem algoritmului, asta ne oferă. Dar cu ce preţ? Deşi mai multă lume foloseşte Facebook sau Google decât oricare post de televiziune, nu aceleaşi reguli se aplică şi pentru giganţii internetului. Deşi există seturi de legi specifice împotriva promovării politice în afara campaniei electorale, cu toţii putem vedea astfel de afişaje în mediul online. Cu doar câteva click-uri şi cu o sumă de bani, îţi poţi cu uşurinţă promova partidul fără a fi răspunzător în faţa nimănui. Din moment ce legislaţia care să reglementeze astfel de practici întârzie să apară, ne putem aştepta ca interferenţa forţelor străine în mecanismul voturilor să nu se mai rezume doar la lupta prezidenţială din SUA.

Însă niciun guvern nu poate fi la curent cu domeniul AI, la fel cum niciun guvern nu va putea vreodată investi în el aşa cum o fac companiile private ca Google, Facebook, Microsoft sau AliBaba. Însă nici nu ar trebui să se lase dominaţi de acesta, ci să pornească politici proactive pentru ghidarea şi reglementarea practicilor care lăsate nesupravegheate, aşa cum am văzut mai devreme, pot produce probleme uriaşe atât în pieţele de capital, cât şi în mecanismele democratice. Poate o politică globală ar fi mult mai eficientă pentru a contracara practici globale, şi deci iniţiativa ONU ar trebui încurajată şi repetată. Cert este că, atâta timp cât noi ca societate nu decidem o poziţie pe care să o adoptăm asupra acestor probleme, inevitabil cei nesupravegheaţi o vor face pentru noi. Iar trenul Inteligenţei Artificiale pare în momentul de faţă imposibil de oprit. 

Surse folosite pentru documentare:

Distribuie articolul

Lasa un comentariu

Your email address will not be published. Required fields are marked *

*

19 + seventeen =

Edițiile Sinteza
x
Aboneaza-te