• Acasa
  • Despre Marginalia
  • Contributori
  • Redactia
  • Biografii fondatori
[ Marginalia ] etc.
[ Marginalia ] etc.
  • Acasa
  • Despre Marginalia
  • Contributori
  • Redactia
  • Biografii fondatori
comments Share
You are reading
De ce trebuie să protejăm ignoranța de avântul inteligenței artificiale
De ce trebuie să protejăm ignoranța de avântul inteligenței artificiale
Home
Știință

De ce trebuie să protejăm ignoranța de avântul inteligenței artificiale

February 8th, 2021 Iulian-Alfred Husac Iulian-Alfred Husac Știință comments

Partajează pe retelele sociale

Facebook Twitter Google+ LinkedIn WhatsApp

Un articol pentru Nautilus de Christina Leuker și Wouter Van Den Bos, membrii ai Institutului Max Planck pentru Dezvoltare Umană.

 

După căderea Zidului Berlinului, cetățenilor Germaniei de Est li s-a dat dreptul de a-și citi dosarele create de serviciile secrete germane (STASI). Se estimează că până astăzi doar 10 procente dintre ei și-au exercitat acest drept.

În 2007, James Watson, unul dintre savanții care au descoperit structura ADN, a refuzat să i se ofere vreo informație despre gena sa APOE, a cărei alelă este cunoscută pentru declanșarea bolii Alzheimer.

Majoritatea oamenilor răspund persoanelor care fac sondaje de opinie că, dacă ar putea alege să-și cunoască ziua morții sau data unor evenimente viitoare fericite, ar prefera să nu o facă.

Fiecare dintre situațiile de mai sus relevă o ignoranță voită. Deși Socrate a spus că o viață lipsită de întrebări este o viață irosită, iar Hobbes a susținut primatul curiozității ca pasiune a oamenilor, multe dintre cele mai vechi întâmplări descriu pericolele ce derivă din a ști prea mult. De la Adam și Eva și pomul cunoașterii, la Prometeu și furtul secretului focului, ele ne învață că deciziile din viața reală trebuie să mențină echilibrul dintre a alege să știi sau să rămâi ignorant.

Ce-ar fi dacă o ar apărea o tehnologie care să încline balanța într-un mod imprevizibil, complicând modul și momentul în care decidem să rămânem ignoranți? Această tehnologie e deja aici și se numește inteligența artificială.

Inteligența artificială sau AI poate găsi tipare și face inferențe pornind de la o bază relativ mică de informații. Spre exemplu, câteva aprecieri pe Facebook sunt destule pentru ca tehnologia AI să-ți poată identifica personalitatea, rasa, sexul. Despre un alt algoritm se susține că poate distinge între bărbații heterosexuali și homosexuali cu o precizie de 81 de procente, iar cât privește orientarea sexuală în cazul femeilor, cu o precizie de 71 de procente, pornind de la o simplă fotografie[1]. Un alt algoritm denumit COMPAS poate prezice recidivismul unei persoane pornind de la informații precum arestări juvenile, antecedente penale în familie, educație, gradul de izolare socială și activitățile din timpul liber cu o precizie de 65 de procente[2].

În toate aceste cazuri, concluzia poate fi foarte diferită de natura informațiilor culese și folosite de algoritm (chiar dacă validitatea unor rezultate poate fi contestată), făcând ceea ce știm dificil de controlat. Legislația în vigoare menită să ne protejeze ignoranța este foarte puțină sau chiar inexistentă. Nu există o protecție a ,,dreptului de a nu ști”.

Această situație creează mediul perfect în care, la fel ca în motto-ul vechi al Facebook, suntem predispuși să ,,ne mișcăm repede și să revoluționăm”. Dar când vine vorba despre viața noastră privată, ,,să revoluționăm” este chiar ceea ce vrem să facem?

Guvernele și puterea legislativă știau de zeci de ani că cutia Pandorei nu trebuie deschisă. Numeroase legi de protecție a ignoranței individului au fost dezbătute încă din anii ‘90. Convenția Europeană asupra Drepturilor Omului și Biomedicinei din 1997 statuează, spre exemplu, că ,,Orice persoană are dreptul să cunoască orice informaţie culeasă cu privire la sănătatea sa. Cu toate acestea, dorinţa unei persoane de a nu fi informată trebuie respectată.” La fel, Declarația Asociației Mondiale a Medicinei asupra Drepturilor Pacientului din 1995 statua că ,,pacientul are dreptul de a nu fi informat [despre informațiile medicale] la cererea sa expresă, cu excepția cazului în care informarea se face pentru protejarea vieții altei persoanei.”

Redactarea unor legi care să apere ,,dreptul la ignoranță” de inteligența artificială pune alte probleme. În timp ce informațiile medicale sunt strict reglementate, informațiile folosite de AI se află în mâinile sectorului tehnologic, recunoscut pentru reglementarea slabă și orientarea spre profit. De asemenea, informațiile colectate de AI sunt diverse, astfel că legile viitoare necesită o înțelegere mai largă a ce trebuie să cuprindă ,,dreptul la ignoranță”. În acest sens, cercetarea în domeniul psihologiei ignoranței voluntare ar putea ajuta. Din păcate, subiectul a fost mult timp desconsiderat, mai ales ca domeniu de cercetare științifică riguroasă, poate și din cauza presupunerii implicite că este irațional să vrei să nu fii informat.

De curând, psihologul Ralph Hertwig și marele jurist Christoph Engel au publicat o taxonomie extinsă de argumente în favoarea ignoranței voluntare. Ei au identificat două seturi de argumente care au o relevanță specială în raport cu nevoia de ignoranță în fața inteligenței artificiale.

Primul set de argumente se învârte în jurul imparțialității și corectitudinii. Mai precis, cunoașterea poate uneori să corupă judecata, iar de aceea alegem adesea să rămânem în mod voit ignoranți. Un exemplu la îndemână este reprezentat de evaluarea peer review a lucrărilor academice care este de cele mai multe ori anonimă. La fel, în majoritatea țărilor, societăților de asigurări nu li se permite să știe toate detaliile despre sănătatea clienților lor înainte de a încheia contracte cu aceștia; ele au dreptul să cunoască doar factorii generali de risc. Astfel de observații sunt relevante mai ales în cazul inteligenței artificiale, deoarece există riscul ca în urma prelucrării informațiile rezultate să fie prejudiciabile pentru indivizi.

Al doilea set de argumente fac referire la stabilitatea emoțională și evitarea regretelor. Ignoranța voluntară, în accepțiunea lui Hertwig și Engel, poate ajuta oamenii să mențină ,,convingeri intime” și să evite ,,disconfortul mental, frica și disonanța cognitivă”[3]. Răspândirea ignoranței voluntare este mare. Aproximativ 90 de procente dintre germanii chestionați vor să evite sentimente negative ce ar putea rezulta din ,,cunoașterea dinainte a unor evenimente triste, precum moartea sau divorțul” și 40 sau 70 de procente dintre aceștia nu vor să știe dinainte despre evenimente fericite, pentru a se putea bucura de ,,surprizele și suspansul” care ar rezulta, spre exemplu, din cunoașterea sexului copilului la momentul nașterii[4].

Aceste argumente ne pot ajuta să înțelegem de ce trebuie să protejăm ignoranța de avântul inteligenței artificiale. Algoritmul ,,gaydar”, spre exemplu, pare să aibă aproape zero beneficii și este foarte costisitor când vine vorba de imparțialitate și corectitudine. Citând publicația The Economist, ,,în părțile lumii unde a fi gay este inacceptabil din punct de vedere social sau ilegal, un astfel de algoritm reprezintă o amenințare serioasă la adresa siguranței persoanei”. În aceeași măsură, așa-zisele beneficii ale unui program care identifică etnia, precum cel aflat în prezent sub dezvoltarea celor de la NtechLab, sunt nesemnificative în raport cu vicierea adusă imparțialității și corectitudinii. Utilizarea sistemului COMPAS de prezicere a recidivismului are o acuratețe mai mare decât ar avea o ființă umană, dar, precum au scris Dressel și Farid, ,,nu este precizia pe care ne-o dorim atunci când este în joc viitorul unui suspect”. Algoritmele care prezic speranța de viață a individului, ca cele dezvoltate de Aspire Health, nu contribuie în mod necesar la stabilitatea emoțională.

Astfel de exemple ilustrează utilitatea identificării unor motive de natură individuală în favoarea ignoranței și demonstrează cât de complexe pot fi întrebările despre cunoaștere și ignoranță, în special când vine vorba de inteligența artificială. Nu se poate răspunde clar când ignoranța colectivă este benefică sau adecvată din punct de vedere etic. O abordare potrivită ar fi luarea fiecărui caz individual în parte și supunerea lui la o analiză de tip beneficiu-risc. De preferat ar fi ca o astfel de analiză să fie publică, date fiind complexitatea dezbaterii și amploarea consecințelor, și ar trebui să includă toate părțile interesate, opiniile unor experți, precum și luarea în considerare a tuturor rezultatelor posibile, chiar și a celor mai pesimiste scenarii.

O astfel de inițiativă ridică o mulțime de dificultăți – de fapt, în cele mai multe cazuri ar fi imposibil de pus în practică. Așadar, cum planificăm în linii mari ceva ce necesită adaptări fine?

O abordare ar fi să controlăm și să limităm inferențele pe care calculatoarele le fac utilizând informațiile pe care le-au colectat deja. În acest sens, am putea ,,interzice” algoritmului judiciar să folosească rasa ca o variabilă de prezicere sau, un alt exemplu, să excludem sexul ca variabilă din analiza unor potențiali candidați pentru locuri vacante de muncă. Însă această abordare nu este lipsită de probleme.

În primul rând, limitarea informațiilor pe care marile companii le pot folosi este o inițiativă costisitoare și dificil de pus în practică din punct de vedere tehnic. Ar necesita nu doar ca aceste companii să ofere acces liber la sursa algoritmilor folosiți, ci și o activitate de audit permanent din partea marilor agenții guvernamentale. În plus, odată ce segmente mari de informații au fost colectate, sunt multe feluri indirecte de deducere a ,,informațiilor interzise” acestora. Să presupunem că utilizarea sexului ca variabilă pentru prezicerea succesului academic ar fi declarată ilegală. Ar fi foarte ușor pentru aceste companii să folosească variabile precum ,,mașina deținută” și ,,genul de muzică preferat” ca substitute pentru sex, efectuând mai apoi o inferență de gradul doi și făcând prezicerea pornind de la substitutele folosite pentru sex. Inferențele despre sex ar putea fi integrate într-un algoritm în ciuda bunelor intenții ale unei companii. Aceste inferențe de gradul doi fac activitatea de audit mult mai descurajantă. Cu cât mai multe variabile sunt incluse în analiză, cu atât mai mari sunt șansele să apară inferențe de gradul doi.

O abordare mai radicală – și probabil mai eficientă – ar fi să prevenim mai întâi colectarea datelor. Spre exemplu, într-o inițiativă de pionierat în domeniul legislativ, Germania a adoptat în anul 2017 o serie de legi care interzic mașinilor autonome să identifice rasa, vârsta și sexul oamenilor de pe stradă. Asta se traduce prin faptul că mașina nu va putea niciodată să integreze în deciziile sale – și în special în deciziile care trebuie luate când un accident este inevitabil – informații din aceste categorii.

Consecventă cu acest mod de a gândi, Uniunea Europeană a prevăzut prin Regulamentul General pentru Protecția Datelor (GDPR), în vigoare din mai 2018, că utilizatorilor europeni li se poate stoca de către companii un minim de informații personale, doar cu consimțământul lor și în raport cu un serviciu specific oferit de către companiile care colectează astfel de informații. O astfel de restricție ar putea reduce semnificativ inferențele de gradul doi. O limitare importantă a abordării GDPR reiese din faptul că unele companii pot să-și fixeze obiective foarte generale. Un exemplu este dat de fosta (inexistentă în prezent) Cambridge Analytica a cărei obiectiv clar era să evalueze personalitatea, astfel că așa-zisa ,,controversată” campanie de colectare a datelor personale ale utilizatorilor Facebook satisfăcea normele GDPR. În mod asemănător, accentul GDPR pe raportul dintre informații și un serviciu specific nu exclude posibilitatea oferirii unor informații cu caracter imoral, nici nu interzice companiilor să cumpere informații ilegale de la un broker de informații atât timp cât utilizatorul consimte în acest sens – și nu puțini oameni refuză să ofere informații chiar și pentru niște beneficii derizorii. Cercetătorii au aflat că niște studenți de la Institutul de Tehnologie din Massachusetts ar oferi informațiile de contact ale prietenilor lor pentru o simplă felie de pizza[5]. Este cât se poate de evident că mai multe limitări sunt necesare, dar cât de multe?

Activistul și programatorul american Richard Stallman a dat acest răspuns: ,,Sunt atât de multe feluri în care informațiile pot fi folosite pentru a face rău oamenilor încât singura bază de date sigură ar fi cea în care nu s-ar stoca nimic, niciodată.” Dar restrângerea radicală a procesului de colectare ar îngreuna progresul tehnologic și ne-ar putea priva de beneficiile folosirii AI.

Cine ar trebui să decidă în aceste cazuri? Ei bine, noi toți ar trebui să o facem.

În majoritatea cazurilor vorbim despre informațiile noastre personale. Am fost nepăsători oferindu-le unor aplicații atrăgătoare fără să ne gândim la posibilele consecințe. De fapt, ne oferim informațiile personale de atâta timp încât am uitat că ne aparțin. Redobândirea lor ne-ar permite să decidem fiecare dacă există lucruri pe care vrem să le știm și altele pe care nu vrem să le aflăm. Restaurarea informațiilor către proprietarii de drept – în acest caz fiecare dintre noi – reprezintă soluția ideală a numeroaselor probleme discutate mai sus. Nu necesită dezvoltarea unei legi universale care să reglementeze utilizarea informațiilor. În schimb, milioanele de utilizatori își vor ghida alegerile ce privesc folosirea datelor cu caracter personal conform propriilor convingeri. Cu toții am putea reacționa în funcție de evoluția politicilor companiilor, pedepsindu-le sau răsplătindu-le în raport cu modul cum tratează informațiile utilizatorilor.

Programatorul și filosoful în știința calculatoarelor Jaron Lanier a propus un argument în plus, de factură economică, în favoarea redobândirii de către indivizii a informațiilor oferite diverselor servicii și companii. Lanier consideră că am putea cu toții să profităm de pe urma informațiilor noastre prin vânzarea lor către marile companii. Această abordare ridică însă probleme sub două aspecte. Un prim aspect constă în confuzia creată în ce privește etica utilizării informațiilor și a proprietății. Intenția de a oferi date personale cu titlu gratuit reprezintă testul de turnesol pentru integritatea etică a întrebărilor la care astfel de informații vor fi folosite pentru a răspunde. Câți indivizi dintr-o minoritate și-ar oferi informațiile personale gratuit pentru a crea o aplicație de recunoaștere facială precum gaydar? Câți dintre aceștia ar accepta să fie plătiți pentru asta? Pe de altă parte, o parte importantă din populație ar contribui pro bono la găsirea unui leac pentru cancer. Un al doilea aspect constă în faptul că valoarea ridicată a datelor personale ar conduce la crearea unui privilegiu pentru cei bogați, deoarece doar aceștia și-ar putea permite să le cumpere.

Totuși, nu putem afirma cu rigiditate că acțiunea individuală ar fi suficientă. Acțiunea colectivă prin instituțiile statului este și ea necesară. Chiar dacă o mică parte a populației își oferă informațiile personale, rezultatul ar putea avea o mai mare acuratețe decât în cazul oferirii informațiilor de către majoritatea populației. Nu toți suntem conștienți de asta. Pentru a preveni situații nedorite sunt necesare legi și dezbateri publice.

The Economist a scris că cea mai valoroasă resursă a lumii nu mai este petrolul, ci informațiile, iar acestea sunt foarte diferite de petrol. Pe lângă faptul că reprezintă o resursă nelimitată, ele sunt deținute de persoane și este cel mai bine să nu atașăm valoare economică schimbului lor. Lipsirea petrolului de potențialul profit ar închide piața de petrol. Ca un prim pas, lipsirea informațiilor de valoare economică creează mediul necesar menținerii unor standarde etice care pot supraviețui avântului inteligenței artificiale, și deschid drumul către gestionarea ignoranței colective. Cu alte cuvinte, dacă informațiile devin unele dintre cele mai utile bunuri ale lumii moderne, ele trebuie să devină și cele mai ieftine.

 

NOTE:

[1] Wang, Y. & Kosinski, M. Deep neural networks are more accurate than humans at detecting sexual orientation from facial images. Journal of Personality and Social Psychology 114, 246-257 (2018).

[2] Dressel, J. & Farid, H. The accuracy, fairness, and limits of predicting recidivism. Science Advances 4, eaao5580 (2018).

[3] Hertwig, R. & Engel, C. Homo ignorans: Deliberately choosing not to know. Perspectives on Psychological Science 11, 359-372 (2016).

[4] Gigerenzer, G. & Garcia-Retamero, R. Cassandra’s regret: The psychology of not wanting to know. Psychological Review 124, 179-196 (2017).

[5] Athey, S. Catalini, C., & Tucker, C.E. The digital privacy paradox: Small money, small costs, small talk. Stanford University Graduate School of Business Research Paper No. 17-14 (2018).

 

Articol original: We Need To Save Ignorance From AI

Partajează pe retelele sociale

Facebook Twitter Google+ LinkedIn WhatsApp
Next article Decadența întruchipată: Distopia „Poveștii slujitoarei”
Previous article Daniel Uncu. Halucinant: organizatia marxista Black Lives Matter, propusa la "Premiul Nobel pentru Pace"
Iulian-Alfred Husac

Iulian-Alfred Husac

În prezent este Vicepreședintele Departamentului Educațional la Liga Studenților a Universității ,,Alexandru Ioan Cuza” din Iași, coordonând proiecte pe teme educaționale și probleme studențești. În perioada 2018-2019 a predat în școli educație juridică din poziția de membru ASD Iași și EDJust (Educație juridică în școli). A participat la numeroase conferințe și evenimente de dezbateri. Domenii de interese: drept internațional, teoria dreptului, relații internaționale, filosofie politică și politică internațională, educație și probleme educaționale.

Related Posts

Embrionii umani sunt ființe umane: un argument științific și filozofic
December 13th, 2020

Embrionii umani sunt ființe umane: un argument științific și filozofic

Măiestria ilustrațiilor botanice
December 9th, 2020

Măiestria ilustrațiilor botanice

Intelectul intuitiv al lui Michael Polanyi
December 7th, 2020

Intelectul intuitiv al lui Michael Polanyi

Facebook Comments

Fluxul Marginalia
Când totul este permis Cultură

Când totul este permis

Feb 24th, 2021
Câteva fragmente din dialogul „Criton” al lui Platon Cultură

Câteva fragmente din dialogul „Criton” al lui Platon

Feb 23rd, 2021
Cum a reușit un susținător al pieței libere să valorifice liberalismul împreună cu gândirea conservatoare Economie

Cum a reușit un susținător al pieței libere să valorifice liberalismul împreună cu gândirea conservatoare

Feb 23rd, 2021
Mircea Mihăieș. Eternul Arhipelag (3) Debate

Mircea Mihăieș. Eternul Arhipelag (3)

Feb 23rd, 2021
Flavius Rovinaru - prefață la ”Murray Rothbard. Știința, tehnologia și guvernul” ALTFEL

Flavius Rovinaru - prefață la ”Murray Rothbard. Știința, tehnologia și guvernul”

Feb 23rd, 2021
Liviu Andreescu. Pseudoargumente despre știință și pseudoștiință: o replică lui Eugen Octav Popa Debate

Liviu Andreescu. Pseudoargumente despre știință și pseudoștiință: o replică lui Eugen Octav Popa

Feb 23rd, 2021
Virgil Iordache. Ortodoxie, artă și bună educație: cadru analitic, exemplu de aplicare Debate

Virgil Iordache. Ortodoxie, artă și bună educație: cadru analitic, exemplu de aplicare

Feb 23rd, 2021
Călătoria cu trenul între privilegiu și economie Politică

Călătoria cu trenul între privilegiu și economie

Feb 21st, 2021
Omenirea: o poveste fără speranță? Societate

Omenirea: o poveste fără speranță?

Feb 21st, 2021
Despre nemurire și eternitate. O introducere Cultură

Despre nemurire și eternitate. O introducere

Feb 21st, 2021
Misterul auctorialității la Shakespeare și Cervantes Cultură

Misterul auctorialității la Shakespeare și Cervantes

Feb 20th, 2021
Titus Livius: „Se știe că adevărul este adesea greu lovit, însă niciodată înăbușit” Istorie

Titus Livius: „Se știe că adevărul este adesea greu lovit, însă niciodată înăbușit”

Feb 20th, 2021
Creația lui Wolfhart Pannenberg Filozofie

Creația lui Wolfhart Pannenberg

Feb 20th, 2021
„Cultura anulării” a fost recunoscută, pentru prima dată, drept un pericol la adresa societății liberale Debate

„Cultura anulării” a fost recunoscută, pentru prima dată, drept un pericol la adresa societății liberale

Feb 19th, 2021
Platformele de socializare sunt un obstacol în calea civilizației Debate

Platformele de socializare sunt un obstacol în calea civilizației

Feb 19th, 2021
Ernst Cassirer: „Comparat cu abundența de care dispunem noi, trecutul poate părea foarte sărac. Dar bogăția noastră de fapte nu este în mod necesar o bogăție de idei” Cultura

Ernst Cassirer: „Comparat cu abundența de care dispunem noi, trecutul poate părea foarte sărac. Dar bogăția noastră de fapte nu este în mod necesar o bogăție de idei”

Feb 19th, 2021
Thomas Kuhn și persistența mitului, magiei și a genealogiilor Cultură

Thomas Kuhn și persistența mitului, magiei și a genealogiilor

Feb 18th, 2021
Moștenirea protestantă a umanismului clasic: Melanchthon și Cicero Cultură

Moștenirea protestantă a umanismului clasic: Melanchthon și Cicero

Feb 17th, 2021
De ce literatura contează Cultură

De ce literatura contează

Feb 17th, 2021
Bogdan Glăvan. E dificil să faci predicții, mai ales despre viitor. Opinii

Bogdan Glăvan. E dificil să faci predicții, mai ales despre viitor.

Feb 17th, 2021
Alexandru Călinescu. Ce mai zice lumea ALTFEL

Alexandru Călinescu. Ce mai zice lumea

Feb 17th, 2021
Adrian Papahagi: Gânduri răzlețe despre libertate, toleranță și corupție Opinii

Adrian Papahagi: Gânduri răzlețe despre libertate, toleranță și corupție

Feb 17th, 2021
Câteva fragmente din „Jurnalul de la Păltiniș”, de Gabriel Liiceanu Cultură

Câteva fragmente din „Jurnalul de la Păltiniș”, de Gabriel Liiceanu

Feb 17th, 2021
Virgil Iordache. Note pe marginea întâlnirii Patriarh – Președinte Debate

Virgil Iordache. Note pe marginea întâlnirii Patriarh – Președinte

Feb 17th, 2021
Viitorul este deja aici Debate

Viitorul este deja aici

Feb 16th, 2021
Bogdan Glăvan. Spălarea pe creier în sistemul socialist de educatie Opinii

Bogdan Glăvan. Spălarea pe creier în sistemul socialist de educatie

Feb 16th, 2021
„Unei veverițe de la Kyle-Na-No", de William Butler Yeats Literatură

„Unei veverițe de la Kyle-Na-No", de William Butler Yeats

Feb 15th, 2021
Lucian Croitoru. O explicație simplă pentru fenomenul GameStop Debate

Lucian Croitoru. O explicație simplă pentru fenomenul GameStop

Feb 15th, 2021
Teodor Baconschi. Ce întrerupe rutina mentală? ALTFEL

Teodor Baconschi. Ce întrerupe rutina mentală?

Feb 15th, 2021
Daniel Uncu. Un deznodamant asteptat: decredibilizarea ireversibila a democratilor americani Opinii

Daniel Uncu. Un deznodamant asteptat: decredibilizarea ireversibila a democratilor americani

Feb 15th, 2021
Câteva fragmente din „Viața în adevăr”, de Václav Havel Cultură

Câteva fragmente din „Viața în adevăr”, de Václav Havel

Feb 15th, 2021
Bogdan Glăvan. De ce e bună privatizarea? Debate

Bogdan Glăvan. De ce e bună privatizarea?

Feb 15th, 2021
Alexandru Lăzescu. Avertismentele lui Lavrov şi „lebedele negre” geopolitice Opinii

Alexandru Lăzescu. Avertismentele lui Lavrov şi „lebedele negre” geopolitice

Feb 15th, 2021
Virgil Iordache. Facem ce am fi putut face de la început. Dar am fi putut ? Debate

Virgil Iordache. Facem ce am fi putut face de la început. Dar am fi putut ?

Feb 15th, 2021
Teodor Baconschi. Izolarea și social-media Opinii

Teodor Baconschi. Izolarea și social-media

Feb 14th, 2021
Lucian Croitoru. Creșterea opțională a vârstei de pensionare: o decizie necesară pentru buget și corectă pentru oameni Opinii

Lucian Croitoru. Creșterea opțională a vârstei de pensionare: o decizie necesară pentru buget și corectă pentru oameni

Feb 14th, 2021
C. Pătrășconiu. Interviu Thierry Wolton: Comunismul, intelectualii de stânga și negaționismul Debate

C. Pătrășconiu. Interviu Thierry Wolton: Comunismul, intelectualii de stânga și negaționismul

Feb 14th, 2021
Mircea Mihăieș. Eternul arhipelag (2) Opinii

Mircea Mihăieș. Eternul arhipelag (2)

Feb 14th, 2021
Matei Vişniec in dialog cu Andrei Şerban la RFI: Ești scos din societate dacă nu ești de acord cu ideile comitetelor neo-bolșevice formate în universități Artă

Matei Vişniec in dialog cu Andrei Şerban la RFI: Ești scos din societate dacă nu ești de acord cu ideile comitetelor neo-bolșevice formate în universități

Feb 14th, 2021
Teodor Baconschi. ”Diviziunea geopolitică a muncii” Opinii

Teodor Baconschi. ”Diviziunea geopolitică a muncii”

Feb 14th, 2021
Alexandru Călinescu. De la Proust la „minunata lume nouă” Opinii

Alexandru Călinescu. De la Proust la „minunata lume nouă”

Feb 13th, 2021
Cristinel Trandafir - prefață: Ludwig von Mises - Haosul planificat Societate

Cristinel Trandafir - prefață: Ludwig von Mises - Haosul planificat

Feb 13th, 2021
  • Despre Marginalia etc.
  • Contact
  • Back to top
© Marginalia 2018. Toate drepturile rezervate.
Website realizat de Marginalia.