În ecourile #CambridgeAnalytica, Cristina Voinea explică de ce e important să ne reamintim de locul și rolul nostru în lumea digitală dominată de marii giganți ai industriei tehnologice, unde datele personale devin monedă de schimb. Dar mai ales de ce e important să nu cădem prizonieri în „tirania comodității” , în timp ce Internetul ajunge să fie guvernat de opusul principiilor care l-au modelat în epoca lui de aur.

 

Facebook a suferit multe lovituri în ultimul timp, însă niciuna atât de puternică precum #CambridgeAnalyticaFiles. Pe scurt, Cambridge Analytica, o companie de consultanță politică care folosește data mining și analiza datelor, a accesat datele personale ale utilizatorilor Facebook pentru a crea profilurile psihologice a zeci de milioane de votanți americani. Știind care sunt interesele, părtinirile sau nevoile fiecărui potențial votant, Cambridge Analytica le-a livrat reclame personalizate menite să facă apel la emoții și să convingă mai repede, ușor și cu mai puține costuri. Serviciile acestei companii au fost folosite în campania electorală a lui Trump, dar și în cea pro-Brexit și altele.

Datele utilizatorilor platformei sociale au ajuns la această companie în mod ilegal. Datele au fost extrase cu ajutorul lui Aleksandr Kogan, cercetător în psihologie la Universitatea Cambridge, care a creat o aplicație de tip quizz de personalitate pentru platforma socială, în schimbul rezultatului utilizatorii fiind nevoiți să ofere acces la datele lor personale. Deși doar 270.000 de utilizatori au făcut testul, aplicația extrăgea și date și despre prietenii acestora. Astfel, au fost expuși peste 87 de milioane de utilizatori. Este important de subliniat că în acest incident nimeni nu a hack-uit nimic, datele au fost obținute cu acordul utilizatorilor. Iar mai apoi, împotriva regulamentului intern al FB, au fost vândute companiei Cambridge Analytica. Recentul scandal a fost prilejuit de faptul că, deși Facebook știa încă din 2015 că milioane de conturi au fost compromise, nu a făcut nimic pentru a se asigura că informațiile care țin de identitatea utilizatorilor săi nu sunt instrumentalizate de diverși indivizi sau chiar puteri politice străine.

În presă, subiectul Cambridge Analytica a fost prezentat destul de umflat, ceea ce implică cel puțin două chestiuni problematice: una dintre ele este eficiența metodei cu care se lăuda Cambridge Analytica. Nu există dovezi că acest tip de microtargeting ar fi așa de eficient în schimbarea atitudinilor indivizilor precum pretinde Alexander Nix,  CEO-ul companiei, care nu are nicio pregătire în politică sau tehnologie, ceea ce ne poate lăsa de gândit că e poate doar un foarte bun vânzător. Decurge astfel că succesele Trump și Brexit nu pot fi puse în totalitate în seama colaborării cu Cambridge Analytica.

Cu toate acestea, efectele scandalului au fost catastrofale pentru Facebook: compania a scăzut la bursă mai mult ca niciodată, din ce în ce mai mulți utilizatori își șterg conturile, ca să nu mai vorbim despre măsurile pe care guvernele doresc să le ia împotriva companiei. S-a vorbit mult despre incapacitatea platformei sociale de a gestiona și proteja datele utilizatorilor săi. De altfel, Zuckerberg a recunoscut, la audierea în fața Congresului American, că își asumă responsabilitatea pentru că nu și-a dat seama la timp de imensa responsabilitate pe care o are. Însă aceasta este doar o fațetă a problemei. #CambridgeAnalytica Files aduce laolaltă o sumedenie de probleme etice și politice, iar felul în care vor fi tranșate poate avea un puternic impact asupra modului în care vor arăta de acum înainte viețile noastre digitale.

Perdele, jaluzele și uși închise

Cel mai îngrijorător aspect al acestui scandal este legat de sfera privată și modul în care Facebook se îngrijește de datele noastre personale. E deja un loc comun observația că atunci când un serviciu digital e gratuit, de fapt noi suntem produsul. Însă abia incidente precum Cambridge Analytica arată cât de multe informații despre noi suntem dispuși să cedăm fără a ne gândi deloc la consecințe. Nici măcar o utilizare minimală a acestor servicii gratuite nu ne poate scuti de o supraveghere extensivă: giganții mediului virtual (și nu numai) au mereu ceva de învățat despre noi – articolele pe care le citim le spun ceva, dar și cele pe care nu le citim sunt o sursă de informații. Locul și ora la care ne conectăm sunt, de asemenea, relevante; momentele în care ne oprim din a da scroll prin newsfeed, la fel. Cu alte cuvinte, orice mișcare pe care o faci sau nu o faci în mediul virtual contează, iar postările, pozele sau textele pe care le urcăm pe platformele sociale sunt un plus binevenit. Ce sunt, însă, în fond, datele personale, cum pot fi ele folosite și, cel mai important, de ce ar trebui să ne pese?

Datele personale sunt informații despre noi, un fel de descrieri ale diverselor noastre aspecte. Iar descrierile acestea pot fi folosite în două feluri: pentru a face referire la o caracteristică unică a unui individ și, implicit, pentru a-l identifica (iar atunci utilizarea lor e una referențială) sau pentru a capta o chestiune generală despre un individ, dar care nu îi e specifică numai lui (în acest caz, utilizarea fiind una atributivă). De exemplu, atunci când pentru o campanie electorală mă interesează să aflu mai multe despre „votantul din Teleorman cu studii superioare și venituri de peste suma X”, nu am în vedere o persoană particulară, ci mă refer la toți indivizii din Teleorman care satisfac aceste criterii, deci utilizarea descrierii e una atributivă. În schimb, atunci când spun „trebuie să aflăm mai multe despre baronul local cu mustață care conduce Camera Deputaților”, e clar că mă refer la o persoană particulară, deci utilizarea descrierii e una referențială.

Impresia generală este că Facebook se interesează doar de tipologiile de consumatori în care ne încadrăm, deci că datele pe care le deține despre noi sunt mai degrabă folosite în mod atributiv. Aceasta este, însă, o falsă impresie: dacă punem laolaltă mai multe descrieri generale sau atributive, putem ajunge la identificarea unui individ particular. De exemplu, o listă precum femeie, studii superioare, doctorat în geoinginerie la Universitatea de Est, vârsta de 43 ani, divorțată, 2 copii, din România, orașul București, bulevardul Fericirii, e mai mult decât suficientă pentru a afla precis despre cine e vorba. Chiar acest lucru a făcut și Cambridge Analytica atunci când a combinat datele obținute de pe Facebook, cu datele pe care le-a cumpărat de la alți brokeri și pe care le-a „suprapus” astfel încât să afle precis cine e John Doe, ce interese are, ce îl poate sensibiliza și ce îl poate convinge să voteze cu Trump (din nou, nu știm cât de eficientă e de fapt metoda folosită de Cambridge Analytica). Așa încât ceea ce considerăm o practică neproblematică – în fond, de ce m-ar deranja ca datele mele personale să fie folosite pentru a mi se sugera produse sau servicii care chiar mă interesează? – s-a dovedit a fi extrem de periculoasă și intruzivă.

Mulți oameni au impresia că sfera privată contează și trebuie protejată doar atunci când există secrete ce se doresc păstrate. Dar chiar și cei care susțin astfel de lucruri au în casă perdele sau jaluzele și își țin ușile închise. 

Toate aceste date referitoare la identitatea unui subiect pot fi folosite în beneficiul acestuia sau în beneficiul unei părți terțe. Primul motiv a servit ca justificare a practicii Facebook de a permite accesul cercetătorilor la datele personale ale utilizatorilor. De exemplu, statele sau unele companii private pot folosi aceste informații astfel încât să îi poată servi mai bine pe cei de la care le-au extras. Acesta este și motivul pentru care Cass Sunstein, cercetător și profesor de drept la Harvard, ne-a cerut să nu exagerăm în cazul scandalului #CambridgeAnalytica Files, pentru că i-am putea transforma în victime colaterale pe toți cercetătorii și toate instituțiile care folosesc, în mod legal, date de pe Facebook pentru programe de nudging (prin care se încearcă crearea de stimulente care să încurajeze un comportament corect, fără a restrânge libertatea de acțiune a indivizilor). Dar aici apar alte probleme: trebui să știe utilizatorii pentru ce tip de cercetări sunt folosite datele lor? Ce înseamnă consimțământul informat și în legătură cu ce este el formulat? Aceste probleme țin mai degrabă de etica cercetării. Însă în cazul Cambridge Analytica, lucrurile sunt mult mai simple: Kogan s-a folosit de statutul său de cercetător pentru a obține niște date pe care apoi le-a vândut unei companii private. Această companie le-a folosit nu în beneficiul utilizatorilor (sau cel puțin nu al tuturor), ci în cel al clienților săi. Iar Facebook, în mod iresponsabil, nu a luat nicio măsură pentru a corecta sau pedepsi acest incident.

Aceste probleme pot părea cu totul lipsite de interes dacă aderăm la următoarea viziune: atât timp cât cineva nu are nimic de ascuns, nu ar trebui să o / îl deranjeze intruziunile în sfera privată. În mod ciudat, mulți oameni au impresia că sfera privată contează și trebuie protejată doar atunci când există secrete ce se doresc păstrate. Dar chiar și cei care susțin astfel de lucruri au în casă perdele sau jaluzele și își țin ușile închise. Toate acestea sunt modalități prin care încercăm să controlăm accesul celorlalți la diverse informații despre noi. Iar acest lucru nu este motivat numai de faptul că avem ceva de ascuns, ci și de intuiția că accesul neautorizat la date personale poate genera mai multe tipuri de rele informaționale.

Asimetrii, inegalități și nedreptăți

Astăzi a devenit foarte ușor să faci rău unei persoane folosindu-te de diverse informații care o privesc. Ne putem gândi, de exemplu, la furtul de identitate, la frauda prin uzurparea identității sau la desecretizarea unor informații pe care subiectul nu ar fi vrut să le facă publice. Protejarea informațiilor personale și controlul sporit al indivizilor asupra lor are, bineînțeles, un efect advers: micșorează libertatea de cunoaștere a tuturor (adică toți cunoaștem mai puțin despre ceilalți). În același timp, reduce în mod considerabil posibilitatea de a ni se face rău. Să ne gândim, de pildă, la portul de arme: când cerem restrângerea drepturilor de a cumpăra arme, cerem, în același timp, încălcarea libertății indivizilor. Temeiul unei astfel de propuneri este chiar limitarea posibilității tuturor de face rău. Exact așa stau lucrurile și în cazul datelor personale; primul motiv pentru care ar trebui să restrângem accesul altora la ele este chiar limitarea posibilității ca aceștia să ne facă un rău (informațional, și nu numai).

Nedreptatea informațională apare atunci când datele personale ale unui individ sunt folosite în afara unei sfere pentru care el și-a dat consimțământul.

Un alt motiv pentru a ne proteja datele personale este să prevenim crearea de inegalități sau nedreptăți informaționale. Într-o oarecare măsură, cele două merg mână în mână. Este clar că toate companiile mediului virtual dețin o cantitate imensă de date, pe care le pun mereu la lucru. Așa iau naștere asimetriile informaționale - un individ/grup are acces la mai multă informație și de mai bună calitate decât ceilalți, ceea ce se traduce prin mai multe avantaje. Problema este că rareori știm ce se întâmplă cu acestea, iar odată cu scandalul #CambridgeAnalytica ne-am reamintit acest lucru, însă am și aflat că alții câștigă de pe urma lor (bani, putere politică etc.), în timp ce noi nu ne alegem cu nimic, în afară de o țesătură socială în disoluție.   

Din inegalitate decurge însă și nedreptatea. Și tot Facebook poate servi drept bun exemplu în acest caz. Când mă conectez pe platforma socială, eu știu că unele date despre mine vor fi stocate, dar mă aștept ca acestea să nu ajungă în mâinile altcuiva, care le poate folosi în cine știe ce scopuri (cum s-a și întâmplat, de fapt). E ca atunci când îi spun un secret unei prietene și mă aștept ca aceasta să nu îl spună mai departe. Nedreptatea informațională apare atunci când datele personale ale unui individ sunt folosite în afara unei sfere pentru care el și-a dat consimțământul. De exemplu, dacă un medic decide să vândă unor asiguratori informațiile despre pacienții săi, fără acordul acestora, atunci avem clar de-a face cu o nedreptate informațională. Iar motivul este că această practică se va întoarce împotriva pacienților (asiguratorii pot crește prețurile asigurărilor de viață sau chiar pot refuza acordarea acestora unor persoane cu probleme de sănătate). Acesta este principiul integrității contextuale a sferei private: datele mele pot fi folosite numai acolo unde mi-am dat acordul să fie folosite. Asta înseamnă că: 1. Știu cine sunt cei care vor primi și procesa informațiile despre mine; 2. Știu la ce tipuri de date vor avea acces; 3. Știu pentru ce vor fi folosite. Niciunul dintre aceste criterii nu este îndeplinit de Facebook și cu atât mai puțin de Kogan sau Cambridge Analytica.

Toate aceste motive pentru protejarea sferei private sunt strâns legate de autonomia personală și de controlul pe care vrem să îl avem asupra felului în care ne prezentăm celorlalți. Luciano Floridi, un filosof al informației, susține că identitatea noastră personală nu este altceva decât suma sau rețeaua informațiilor despre noi. Această înțelegere se opune celei newtoniene, în care suntem mai degrabă un conglomerat de materie, ce poate fi explicat cu ajutorul biologiei, chimiei și fizicii. Pentru cei care înțeleg identitatea personală în paradigmă informațională, informațiile despre mine îmi aparțin, însă nu neapărat din punct de vedere legal. Ele îmi sunt constitutive și îmi aparțin așa cum îmi aparțin mâinile, picioarele sau urechile. Toate acestea sunt ale mele și numai eu am dreptul să intervin asupra lor. În sensul acesta, controlul asupra propriei sfere private devine un drept fundamental, necesar pentru ca individul să se poată considera liber. Iar încălcarea sferei private nu este o chestiune ce ar ține de încălcarea unui contract (între utilizator și platformă), ci de încălcarea unui drept fundamental.

Capital, stat și utopie

Am insistat ceva mai mult asupra distincțiilor de mai sus, pentru că am vrut să clarific felurile în care încălcarea sferei private ne poate afecta pe fiecare dintre noi. Nu trebuie totuși să uităm că nu doar Facebook colectează date despre fiecare mișcare pe care o facem, ci fiecare serviciu digital gratuit, de la Google Search la Twitter, Instagram, Gmail sau Whatsapp, face același lucru. Astfel, un scenariu de tipul Cambridge Analytica s-ar putea petrece cu fiecare dintre aceste companii. Problema fragilității sferei private este una structurală pentru mediul virtual actual. Audierea lui Zuckerberg de către Congresul American sau pedepsirea Cambridge Analytica sunt simple petice, care nu ne pot asigura că vor ține Internetul laolaltă. Trebuie să găsim soluții de termen lung, însă acest lucru presupune o privire de ansamblu asupra Internetului și a modalităților în care au fost rezolvate probleme până acum. Un astfel de exercițiu ne-ar putea orienta mai bine în delegarea responsabilităților și găsirea unor mecanisme de a pedepsi vinovații.

Într-o mare măsură, Internetul este o lupă care ne ajută să vedem mai clar tot ce se întâmpla deja în sfera socială. Lupa nu creează ceea ce vedem, ci ne ajută pur și simplu să vedem mai bine.​ 

Free as in free speech, not as in free beer este mantra mișcării FLOSS , care militează pentru utilizarea software-ului liber, care îi oferă utilizatorului posibilitatea de a-l modifica, studia, îmbunătăți după cum dorește. Asta înseamnă că trebuie să urmărim nu neapărat ca serviciile digitale pe care le folosim să fie gratuite, ci deschise. În primul rând, trebuie să ne interesăm dacă ne permit libertatea de a afla cum funcționează. Din păcate, modelul de business predominant în Web 2.0 a înlocuit libertatea cu gratuitatea, ceea ce a dat naștere unei economii a atenției. Nu mai plătim cu bani pentru mail, platforme sociale sau GPS, ci chiar cu libertatea noastră de a afla ce se întâmplă cu toate datele pe care le vărsăm în contul acestor companii, dar și cu felurile în care ne este orientată atenția. 

Este clar că sectorului privat îi este dificil, și uneori contrar propriilor interese, să respecte drepturile, așteptările sau cerințele utilizatorilor. Modelele de business ale giganților mediului virtual sunt construite și depind de stocarea și procesarea datelor personale. Pentru că nu avem nicio pârghie de negociere, iar intruziunile în sfera privată s-au intensificat în ultimul timp, am ajuns să reconsiderăm posibilitatea de a cere ajutorul statelor. Însă această mișcare este total opusă ethos-ului creatorilor și arhitecților Internetului dar și principiilor care au dominat, din 1970 până spre sfârșitul anilor 1990, guvernanța mediului virtual. Internetul utopic de până la Web 2.0 a fost un spațiul al auto-guvernanței și al scepticismului față de intervenția statală. Nucleul valoric al comunității de tehno-optimiști cărora le datorăm Internetul era construirea unui spațiu liber, deschis, accesibil tuturor și care să împuternicească utilizatorii, chiar dacă acest lucru presupunea asumarea unor riscuri legate de siguranță. Era o perioadă a Internetului generativ, în care internauții nu erau consumatori pasivi de conținut, ci creatori activi și participanți la inovațiile digitale. Cu alte cuvinte, erau vremuri în care problemele și conflictele erau rezolvate prin colaborarea actorilor aflați într-un parteneriat public (comunitatea utilizatorilor) – privat (comunitatea companiilor ce apar din mediul virtual) – academic (comunitatea inginerilor și arhitecților Internetului, precum și a teoreticienilor săi).

Astăzi suntem foarte departe de idealul auto-guvernării și de principiul său corolar, cel al evitării intervenției statale. Lucru ce devine evident în chiar creșterea numărului de legi care țintesc spre diminuarea fake news (adică suspendă statutul de mediatori neutri ai rețelelor sociale), prevenirea terorismului ori a pornografiei infantile (adică permit reținerea nediscriminată a datelor utilizatorilor). Astfel de justificări oferite de state pentru a mai reglementa câte ceva, pe ici pe colo, în mediul virtual sunt numite călăreții infocalipsei digitale. Să vedem care este, totuși, logica lor:

  1. Platforma socială/aplicația/serviciul face posibil terorismul, pornografia infantilă, fake news sau propaganda.
  2. Trebuie să reglementăm platforma socială/aplicația/serviciul, astfel încât să reobținem controlul asupra terorismului, pornografiei infantile, fake news sau propagandei.                   

Asumpția ascunsă din spatele unei astfel de gândiri este, cel mai adesea, că Internetul amplifică toate aceste fenomene; altfel, nu ar fi nimic special în legătură cu ele (ba chiar ar fi bine că există Internetul care ne permite identificarea exactă a răufăcătorilor). A decide în astfel de privințe ar însemna să comparăm incidența fenomenului în cauză înainte de Internet, cu cea de după Internet. De exemplu, dacă cineva susține că terorismul a explodat odată cu apariția Internetului, atunci ar trebui să arate că numărul actelor de terorism este mai mare astăzi decât înainte de era netului. Iar în cazul în care se dovedește că lucrurile stau într-adevăr așa, atunci ar trebui să indice și către o legătură cauzală clară între Internet și creșterea numărului de atentate (ca să ne asigurăm că nu comite o eroare de argumentare de tipul post hoc ergo propter hoc). Aceste lucruri țin în mod clar de cercetare empirică, așa că până să avem dovezi clare, ar fi mult mai rezonabil să asumăm că pur și simplu social media, și Internetul în general, fac vizibile toate comportamentele umane (și bune și rele), ceea ce ar putea contribui la impresia că unele activități cu care nu ne-am întâlnit până la Internet s-au amplificat datorită acestuia (asta pentru că începem să le vedem). Într-o mare măsură, Internetul este o lupă care ne ajută să vedem mai clar tot ce se întâmpla deja în sfera socială. Lupa nu creează ceea ce vedem, ci ne ajută pur și simplu să vedem mai bine. Dacă acest lucru pare rezonabil, atunci când cu ajutorul lupei observăm un comportament pe care îl considerăm inacceptabil, nu ar trebui să ștergem lupa sau să renunțăm la ea, ci ar fi logic să intervenim mai degrabă asupra a ceea ce ea face vizibil. Cu alte cuvinte, nu Internetul trebuie schimbat, ci ar trebui să ne gândim la noi modalități de pedepsi acei actori care fac lucruri pe care le considerăm inacceptabile în sfera virtuală.

O astfel de viziune ne-ar pune însă din nou în încurcătură. Pentru că ar trebui să ne întrebăm dacă chestiunile pe care le considerăm inacceptabile pe Internet sunt în natură diferite de ceea ce se întâmplă în lumea reală. De exemplu, este ce face Cambridge Analytica ceva în mod esențial diferit de ce fac unele televiziuni din România? În funcție de răspuns, va trebui să îi pedepsim pe amândoi sau pe niciunul.

Astăzi, majoritatea utilizatorilor au adoptat o etică a cumințeniei; suntem toți o comunitate care nu face decât să apese pe butoane, fără a ști cu adevărat ce se întâmplă când facem aceste lucruri.

Întrebarea crucială e dacă ar trebui să avem încredere în state că ne vor proteja în fața răilor giganți tech și fenomenelor pe care ei le fac posibile sau le permit. Cred că în acest punct ne-ar ajuta dacă am încerca să ne gândim la „cum s-au comportat” statele până acum în sau cu mediul virtual. Un prim lucru care ne-ar veni în minte ar fi chiar dezvăluirile whistleblower-ului Edward Snowden. Atunci am aflat că Statele Unite (și majoritatea celorlalte state democratice și liberale) au interceptat, fără niciun fel de acord prealabil, comunicațiile cetățenilor lor sau ai altor țări. Rațiunea statelor este deficitară: colectăm datele, apoi vedem ce putem face cu ele (se pare totuși că nu poți preveni chiar așa de ușor atentatele teroriste prin această metodă, vezi cazul Charlie Hebdo). Atunci am realizat că statele nu sunt neapărat niște aliați în lupta pentru sfera privată, libertatea de exprimare și așa mai departe. Ne aflăm astfel într-o situație dificilă în care pare că iar avem de a face o alegere a răului cel mai mic: state sau companii private opace?

Există și posibilitatea ca soluția să nu fie niciuna dintre ele. Asta ar însemna să ne întoarcem la Internetul utopic al anilor 1990. Mai este totuși posibil un cyberspace al auto-guvernării, deschis și liber, așa cum a fost gândită de John Perry Barlow în Declarația de independeță a cyber-spațiului? În acest faimos document, care stă ca o dovadă a credințelor celor care au creat Internetul și au ajutat la dezvoltarea sa, aflăm despre faptul că statele (poate chiar și giganții tech) „nu cunosc cultura, etica sau regulile nescrise care deja oferă societății noastre [adică celei digitale] mai multă ordine decât ar putea rezulta din oricare dintre intervențiile voastre [ale statelor]”.

Care este, însă, această etică? Mihail Radu Solcan, primul filosof din România care s-a preocupat de mediul virtual, a numit-o atât de inspirat și concret, o etică a cunoașterii. Ideea fundamentală este că „orice tehnologie are desigur o legătură cu cunoașterea. Tehnologia informației este, însă, într-o situație specială: ea este una dintre verigile (tot mai importantă astăzi) ale procesului prin care este produsă cunoașterea.” Dar pentru a dobândi cunoaștere, ar trebui să avem acces la sursele programelor, aplicațiilor sau serviciilor pe care le folosim pentru a le înțelege. Acest criteriu nu este unul constrângător, în sensul în care nu impune ca toți utilizatorii să învețe să codeze. Însă el este necesar pentru a asigura transparența, astfel încât indivizii să poată pricepe ce face programul în cauză, cum funcționează el. Numai în acest fel am putea să evaluăm critic și să alegem informat dacă serviciile digitale ne sunt sau nu potrivite, dacă respectă sau nu valorile și principiile noastre.

Astăzi, însă, majoritatea utilizatorilor au adoptat o etică a cumințeniei; suntem toți o comunitate care nu face decât să apese pe butoane, fără a ști cu adevărat ce se întâmplă când facem aceste lucruri. E de înțeles că ne dorim un Internet confortabil, simplu de înțeles și utilizat, în care totul este gratuit. Dar odată cu această pretenție, vine la pachet și acceptarea faptului că atunci când vrem ca totul să ni se dea de-a gata, ni se vor oferi și regulile de gestionare a datelor personale ori normele despre ceea ce putem sau nu putem face sau spune pe Internet. Tim Wu a numit această stare de fapt tirania comodității care: „cu promisiunea eficienței rapide și fără efort, poate duce la disoluția luptelor și provocărilor care ne ajută să oferim un sens vieții. Creată pentru a ne elibera, ea poate deveni o constrângere asupra a ceea ce suntem dispuși să facem și, astfel, într-un mod subtil, ne poate înrobi.” Cu cât cerem servicii mai simple și intuitive, cu atât mai puțin control vom avea asupra lor. Cu cât suntem mai comozi, cu atât mai puțină autonomie avem.

Un Internet liber, deschis, în care avem controlul asupra datelor noastre personale, dar și asupra felului în care ne este orientată atenția nu poate fi posibil într-o paradigmă a eticii cumințeniei. Ne putem întoarce la utopia digitală descrisă de Barlow, însă numai dacă ne gândim serios să adoptăm și practicăm o etică a cunoașterii. Asta presupune, în primul rând, asumarea responsabilității pentru sfera noastră privată, pentru felul în care ne este orientată atenția, dar și pentru informația pe care o facem accesibilă altora. La pachet cu un astfel de mod de a ne modela viețile digitale vine, în primul rând, necesitatea de a depune eforturi pentru educarea digitală și, în al doilea rând, asumarea unor riscuri (că uneori lucrurile nu vor merge brici). Unele lucruri pur și simplu nu trebuie delegate altora, iar dacă în viața reală suntem conștienți de acest lucru, când vine vorba de Internet pare că nimic nu ar fi atât de important și real încât să ne batem cu adevărat capul. Fără o astfel de reflectare critică a destinelor noastre online riscăm să ne îndreptăm către „balcanizarea Internetului”, în care fiecare dintre noi va pluti pe insule de conectivitate rupte și depărtate de idealul unei rețele globale.