Cine te manipulează mai bine? Social media vs. democrația liberală în era AI. / Who manipulates you better? Social media vs. liberal democracy in the AI era.
Ideea acestei analize a venit ca urmare a faptului că am fost ținta unei campanii coordonate de atac pe platformele de social media, realizată printr-o rețea organizată de așa-zise conturi independente de „presă”. La începutul lunii martie 2026 a fost un singur articol defăimător distribuit de unul dintre aceste conturi pe social media și impactul a fost probabil de până în 500 de utilizatori care au vizualizat conținutul, nesemnificativ pentru a declanșa o reacție din partea mea, dar am monitorizat situația. La 3 săptămâni, însă, s-a dat startul operațiunii coordonate prin această rețea, iar rezultatul e că informația falsă a pătruns în aproape toate bulele în mod artificial, ajungând la sute de mii sau chiar milioane de utilizatori.
Manipularea – problemă de arhitectură, nu de conținut
Greșeala fundamentală în dezbaterea din prezent este că tratăm manipularea algoritmică ca pe o problemă de conținut, când de fapt este o problemă de arhitectură. Nu este vorba despre ce se spune pe rețelele sociale, ci despre cum este distribuit, amplificat și personalizat ce se spune.
Această distincție este esențială. Libertatea de exprimare protejează dreptul de a spune lucruri ofensatoare, nepopulare. Într-un regim cu adevărat liberal, poți promova teorii conspiraționiste absurde și idei care să provoace indignare. Răspunsul la această formă de comunicare este mai multă comunicare, nu cenzura - aceasta e doctrina clasică.
Dar algoritmii nu protejează comunicarea, ci o transformă. Ei iau o postare cu 10 vizualizări organice și o amplifică la 10 milioane. Iau o opinie marginală și o fac să pară majoritară. Iau un dezacord minor și îl polarizează până la ură viscerală. Algoritmii nu moderează, ci manipulează.
Problema nu este că există oameni care cred în teoria Pământului plat. Problema este că algoritmii îi conectează pe toți într-o comunitate coezivă, le servesc progresiv conținut mai extrem și transformă o curiozitate în identitate tribală. Conținutul poate fi complet legal și chiar protejat constituțional. Arhitectura este ceea ce creează patologia.
Cum funcționează?
Pentru a combate manipularea fără a deveni cenzori, trebuie să înțelegem mecanic exact cum funcționează:
1. Ți se captează atenția prin optimizare neurochimică
Algoritmii nu optimizează pentru adevăr, utilitate sau deliberare democratică sănătoasă. Optimizează pentru engagement - clicks, shares, time spent, comentarii. Aceste metrici sunt proxy pentru activare neurochimică: dopamină, cortizol, oxitocină.
Conținutul care generează engagement maxim are caracteristici predictibile:
Provocarea morală: indignarea activează împărtășirea (share-ul) mai mult decât orice altă emoție
Simplificarea tribală: noi vs ei, bine vs rău, fără nuanță
Violarea așteptărilor: șocant, scandalos, contraintuitiv
Validarea identității: confirmi că ai dreptate, că tribul tău e superior
Problema nu este că oamenii produc astfel de conținut - au făcut-o întotdeauna. Problema este că algoritmii îl selectează preferențial pentru distribuire masivă deoarece generează cele mai multe clicks.
Un editorial nuanțat de 2000 de cuvinte? 100 de views. Un meme furios sau o știre falsă? 1 milion. Algoritmul „vede” că al doilea funcționează și îl amplifică. Nu „judecă” după conținut și calitatea lui, ci „judecă” după performanța neurochimică.
2. Se creează bule prin filtrare colaborativă
Tu nu vezi ce văd alții. Fiecare utilizator primește un feed personalizat bazat pe ce a funcționat anterior pentru el și pentru oameni similari. Procesul:
Algoritmul observă că reacționezi la conținut despre taxe mărite
Te grupează cu alții care reacționează similar
Începe să-ți servească conținut care a funcționat pentru acel grup
Tu reacționezi, confirmând modelul
Algoritmul devii mai încrezător, servește conținut mai specific
Ciclul se adâncește
Rezultatul este crearea unor realități personalizate la scară industrială. Nu doar echo chambers organice, ci bule fabricate algoritmic ca să maximizeze engagement-ul fiecărei cohorte.
Cineva care a dat click pe un articol despre imigrație va începe să primească progresiv conținut mai extremist pe această temă, nu pentru că există o conspirație, ci pentru că extremismul generează engagement mai mare în cohorta sa.
3. Weaponizarea psihologiei sociale
Algoritmii exploatează vulnerabilități fundamentale ale cogniției umane:
- validare socială artificială - sistemul arată că „10.000 de oameni au share-uit asta” creând impresia de consens. Dar acei 10.000 au fost selectați algoritmic din 3 miliarde de utilizatori. Nu reprezintă nimic despre popularitatea reală, doar că algoritmul a găsit o cohortă care răspunde.
- urgență fabricată - notificările constante creează stări de alertă cronică și e design deliberat pentru a capta atenția.
- validare intermitentă - ca la slot machines, reward-urile (likes, shares) vin impredictibil, creând dependență. Nu e deloc întâmplător, ci e inginerie socială de adicție.
- comparație socială - feed-ul îți arată constant viețile curate ale altora, declanșând anxietate și invidie. Sistemul știe că emotional aroused users = more engagement.
Fact-checking-ul și moderarea conținutului ajută?
Fact-checking-ul presupune că problema este informația falsă. Pe lângă problema de a determina cine poate spune că o informație este falsă sau nu, avem și următoarele probleme:
dezinformarea călătorește pe jumătate din glob înaintea ca adevărul să-și pună pantofii, iar când apare fact-check-ul, narrativul e deja cimentat
fact-checking-ul poate întări convingerile false prin provocarea identității tribale: „elitele încearcă să ne cenzureze” (ceea ce poate fi adevărat, dar cine mai poate determina asta?)
produci fact-check-uri manual în timp ce dezinformarea se produce la scară industrială, amplificată algoritmic
majoritatea manipulării nu cuprinde minciuni verificabile. E selecție, context, framing, emoționalizare. Cum fact-check-uiești un titlu tehnic adevărat, dar care manipulează pe cei care nici măcar nu apasă pe link pentru a citi conținutul, adică e profund misleading?
Companiile angajează armate de moderatori care șterg conținut pe care-l consideră problematic, dar:
scalarea e imposibilă - 500 de ore de video pe minut pe YouTube fac moderarea umana imposibilă
AI de moderare e limitată - sistemele automate caută keywords, patterns, pe când manipulatorii sofisticați folosesc dog whistles, memes, coduri
arbitrajul e imposibil - cine decide ce e „misinformation”? Pe subiecte polarizate, fiecare tabără vede fact-check-ul celeilalte ca pe cenzură politică (ceea ce nici nu este exclus să fie până la urmă)
nu rezolvă arhitectura - poți șterge postarea, dar algoritmul care a amplificat-o rămâne neschimbat, gata să amplifice următoarea postare
Companiile tech fac moderare suficientă pentru a evita răspunderea publică, dar nu fac suficient pentru a rezolva problema. E „teatru de securitate”, adică aparența protecției fără protecție reală.
De ce? Pentru că problema fundamentală e modelul lor de business. Engagement-based advertising necesită optimizarea pentru click-uri. Conținutul polarizator generează cele mai multe click-uri. Moderarea reală ar submina profitabilitatea.
DSA nu atinge modelul de afaceri bazat pe publicitate comportamentală care necesită maximizarea angajamentului, nu impune separarea între serviciul de networking social și algoritmul de curare care îl manipulează, nu forțează interoperabilitatea care ar permite competiție reală între abordări diferite de distribuire a conținutului, nu limitează concentrarea puterii care face ca aceste companii să poată absorbi orice costuri de conformitate legislativă ca simple cheltuieli de operare.
Libertatea de exprimare: negativă vs pozitivă
Trebuie să distingem între două concepții ale libertății:
- libertatea negativă care presupune absența interferenței, în sensul că statul nu te oprește să vorbești. Aceasta e libertatea constituțional protejată.
- libertatea pozitivă care presupune capacitatea efectivă de a fi auzit și de a participa în spațiul public. Nu doar că nu ești cenzurat, ci ai posibilitatea reală de a contribui la conversația publică.
Problema cu rețelele sociale algoritmice este că protejează libertatea negativă, dar subminează libertatea pozitivă: poți tehnic să postezi orice (libertate negativă), dar algoritmul decide dacă cineva va vedea (lipsa libertății pozitive)
Un utilizator cu 100 de followers care scrie o analiză nuanțată are libertatea negativă să o publice. Dar algoritmul o îngroapă. Un influencer cu 1 milion care postează un meme primește amplificare masivă. Ambii au aceeași „libertate de exprimare” formal, dar puterea lor discursivă e absurd de diferită.
O problemă și mai mare e aceea că algoritmii nu doar filtrează pasiv, ci modelează activ ce tip de comunicare devine vizibilă. Dacă analize nuanțate nu sunt niciodată amplificate, oamenii învață să nu le mai producă. Dacă meme-urile furioase primesc amplificare masivă, producția se deplasează în acea direcție.
Rezultatul: libertate de exprimare formală cu uniformitate discursivă crescândă la tipuri de conținut optimizate pentru algoritmi.
Cum putem combatere manipularea fără cenzură?
Vestea bună e că există soluții care nu necesită arbitraj de conținut.
1. Transparența algoritmică obligatorie
Nu pot exista secrete comerciale când algoritmii modelează spațiul public, iar aici discutăm despre 3 tipuri de transparență:
- transparența individuală: Fiecare utilizator poate vedea de ce i se arată ce i se arată. „Acest post apare în feed-ul tău pentru că ai dat like la X, Y, Z și utilizatori similari au reacționat la asta.”. Nu e suficient un răspuns vag, ci explicația trebuie să fie suficient de specifică pentru ca utilizatorul să o poată înțelege și contesta.
- transparența agregată: Cercetători independenți trebuie să poată audita cum funcționează algoritmul la nivel de sistem. Ce tipuri de conținut amplifică? Care cohorte primesc ce? Ce bias-uri sunt incorporate?
- transparența manipulării: Platformele trebuie să dezvăluie când conținutul e parte a unei campanii coordonate (cum a fost în cazul atacului asupra mea), când conturile sunt în mod suspect active pe un anumit tip de conținut, când pattern-urile sugerează manipulare.
Critica adusă transparenței ar fi faptul că dezvăluirea algoritmilor ar permite gamificarea, adică manipularea lor de către utilizatori (cam cum am observat că se întâmplă pe TikTok, când se dezvăluie că săptămâna aceasta vor fi promovate mai degrabă postările care conțin o anumită melodie). Cu toate acestea, trebuie să fim conștienți că algoritmii sunt deja gamificați masiv, iar transparența ar proteja și utilizatorii, care ar cunoaște aceste lucruri, nu doar manipulatorii, cum se întâmplă în prezent.
2. Separarea amplificării de monetizare
Business model-ul actual este acesta: compania profită când te ține engaged, deci optimizează pentru engagement. Soluția ar fi separarea celor care amplifică de cei care monetizează. Adică un business model alternativ în care utilizatorii plătesc subscripție pentru acces. Platforma e incentivată să maximizeze satisfacția pe termen lung, nu engagement-ul pe termen scurt. Nu mai e conflict între interesul utilizatorului (informație de calitate) și interesul platformei (clicks maxime).
Critica ar proveni de la cei care vor spune că astfel sunt excluși cei care nu pot plăti. Cu toate acestea, interesul public ar justifica un stat care să ofere abonamente pe modelul bibliotecilor publice. Infrastructura digitală vitală pentru democrație nu poate depinde de advertising-ul manipulativ.
3. Interoperabilitatea forțată și feed-uri multiple
Problema pe care o avem e că suntem închiși în algoritmi proprietari. Dacă nu-ți place feed-ul Facebook, singura opțiune e să pleci complet. Soluția ar fi ca platformele să fie forțate să permită feed-uri alternative. Poți folosi algoritmi alternativi, create de terți, pentru a cura același conținut. La fel cum nu ești forțat să folosești interfața email-ului Yahoo pentru a citi email-uri Yahoo, ci poți folosi orice client de e-mail, același principiu să fie și pentru social media.
În acest fel ai avea competiție între algoritmii de curare creați de diverse entități, nu între network effects. Dacă algoritmul Facebook te polarizează, poți folosi un algoritm alternativ care prioritizează diversitate epistemică, pe același conținut de bază.
4. Controale granulare aparținând utilizatorilor (user-side)
Utilizatorii trebuie să poată controla parametrii algoritmului, nu doar să-l accepte ca black box:
- vreau să văd X% din opinii contrare opiniilor mele
- penalizează conținut emotional intens, prioritizează analiza nuanțată
- arată-mi random sampling din tot network-ul, nu doar optimizat pentru mine
- limitează amplificarea virală - nu vreau să văd nimic share-uit de mai mult de 1000 ori
Sunt configurații simple pe care platformele refuză să le ofere, pentru că reduc engagement-ul. Dar dacă utilizatorii controlează parametrii, manipularea devine mult mai dificilă.
5. Viralizarea să fie limitată
Știu că e contraintuitiv, dar viralizarea conținutului e un bug, nu un feature. Distribuția exponențială de conținut fără verificare e rețeta pentru manipulare.
Ce am putea face?
- am putea avea cooling off periods, adică postările să nu poată deveni virale instant, ci cu delay de ore sau zile în care pot fi evaluate și contextualizate
- am putea avea prompts de reflecție, de genul “ești sigur că vrei să share-uiești asta? ai citit articolul sau doar titlul?”
- am putea avea limitări de amplificare, adică o postare nu poate fi share-uită mai mult de X ori până nu trece de un review uman sau de o limită de timp, asta încetinind fabricarea consensului artificial
Criticii ar putea susține că asta ar înceti distribuirea unei informații importante sau chiar urgente. Dacă informația ar fi vitală pentru tine, atunci ar fi preluată și de alte surse, cum ar fi mass-media tradițională, deci viteza extremă avantajează manipularea, nu informarea.
6. Diversitate algoritmică obligatorie
Platformele trebuie aleatoriu să injecteze diversitate de informații în feed:
X% din feed-ul tău e random sampling din opinii contrare bulei tale
Y% e conținut nepopular dar de calitate înaltă (judecată de metrici non-engagement)
Z% din feed-ul tău e în directă contradicție cu pattern-urile tale de consum de conținut
Adică să te oblige la diversificarea conținutului la care ești expus. Nu ești obligat să-l citești, îl poți ignora, dar măcar să ai acces la el. De exemplu, in mass-media tradițională dacă prezinți o perspectivă, ar trebui să oferi și perspectiva contrara (a se vedea dreptul la replică). Acesta ar fi echivalentul algoritmic.
În același timp trebuie să fim onești și să recunoaștem că va exista întotdeauna un conflict între curarea necesară pentru un spațiu public funcțional de comunicare și libertatea de exprimare neîngrădită. Nu există soluție perfectă. Există doar compromisuri mai bine sau mai prost gestionate.
A fost experimentată varianta libertății absolute cu 4chan, o platformă complet nemoderată, iar rezultatul a fost faptul că a fost amplificat conținutul toxic, utilizatorii raționali și echilibrați au plecat, rămânând numai extremismul.
Este experimentată și curarea totală, adică zero „libertate” în statele în care cenzura pe social media este masivă și unde avem conformism, imposibilitatea exprimării de critici, opresiune. Adică securitate informațională pe costul libertății.
Democrațiile liberale trebuie să găsească zona de centru
Democrațiile liberale trebuie să găsească zona de centru: suficientă integritate epistemică pentru funcționalitate democratică, suficientă libertate pentru disidență și pluralism.
Problema actuală nu e că am ales un compromis greșit. E că nu am ales deloc conștient. Am lăsat corporațiile private să decidă arhitectura spațiului public după criterii de profitabilitate, nu de interes democratic.
DSA creează aparența controlului democratic asupra platformelor digitale, generează volumul impresionant de rapoarte și audituri care sugerează supraveghere serioasă, dar lasă neatinsă concentrarea privată de putere algoritmică și modelul economic care face ca manipularea la scară industrială să fie nu doar posibilă, ci inevitabilă și profitabilă. Este o micro-reglementare procedurală care evită confruntarea cu realitatea că nu poți domestici sisteme optimizate fundamental pentru exploatarea psihologiei umane prin simpla obligație de a documenta această exploatare într-un raport anual.
Este ca și cum ai încerca să limitezi puterea unui monarh absolut prin obligarea lui să țină înregistrări detaliate ale deciziilor regale și să permită inspectori să observe procesul decizional, fără a introduce niciodată separarea puterilor, fără a crea un parlament care să poată contesta autoritatea regală, fără a fragmenta concentrarea absolută de putere executivă, legislativă și judiciară în mâinile unei singure persoane. Monarhul va ține registre impecabile, va permite observatori în sala tronului, va publica rapoarte anuale despre starea regatului, dar va rămâne în continuare singurul deținător al puterii supreme.
Poate problema fundamentală e că tratăm platformele sociale ca bunuri private, când, de fapt, sunt infrastructură publică. Spațiul public digital e la fel de esențial pentru democrație ca drumurile publice, rețelele electrice, sistemele de apă. Nu ar trebui privatizat și operaționalizat exclusiv pentru profit.
Orice soluție naște întrebarea: Cine decide parametrii algoritmilor? Cine stabilește ce înseamnă „dezinformarea”? Cine definește „conținutul de calitate”?
Dacă răspunsul e „corporațiile tech”, avem status quo-ul. Dacă răspunsul e „guvernul”, riscăm cenzură de stat. Dacă răspunsul e „experții”, riscăm technocrație nelegitimă. Dacă răspunsul e „utilizatorii individuali”, riscăm haos și manipulare continuă.
Poate răspunsul e stratificat și pluralist:
Nivel constituțional, adică limite fundamentale cu privire la ceea ce le este interzis algoritmilor (ex: nu pot deliberat polariza pentru profit), care să fie stabilite democratic, cu protecții de rang constituțional
Nivel instituțional, adică existența unor organisme independente multi-stakeholder care să seteze standardele generale ale industriei
Nivel individual, adică utilizatorii să controleze parametrii în cadrul constrângerilor de mai sus și pe modelele deja expuse anterior
Orice spațiu e deja „reglementat” - de algoritmi, de business models, de arhitectură tehnică. Nu există neutralitate. Întrebarea nu e „reglementare sau libertate”, ci „reglementare pentru profitul corporatist sau reglementare pentru interesul democratic”.
Libertatea de exprimare nu înseamnă că algoritmii trebuie să aibă libertatea de a manipula conținutul după bunul plac.
Provocarea democrațiilor liberale e să construiască arhitecturi digitale care:
- protejează dreptul de a spune orice (conținut)
- dar limitează puterea de amplificare manipulativă (distribuire)
- fără a crea instrumente care pot fi ușor transformat în cenzură
E un echilibru periculos. Dar alternativa, adică cedarea spațiului public algoritmilor optimizați doar pentru profit, garantează moartea lentă a democrației liberale.
English translation
The idea for this analysis came about as a result of being targeted by a coordinated attack campaign on social media platforms, carried out through an organised network of so-called independent “press” accounts. At the beginning of March 2026, there was a single defamatory article distributed by one of these accounts on social media and the impact was probably around 500 users who viewed the content, insignificant enough not to trigger a reaction from me, but I monitored the situation. After 3 weeks, however, the coordinated operation was launched through this network, and the result is that false information has penetrated into almost all bubbles artificially, reaching hundreds of thousands or even millions of users.
Manipulation -a problem of architecture, not content
The fundamental mistake in today’s debate is that we treat algorithmic manipulation as a content problem, when in fact it is an architecture problem. It is not about what is said on social networks, but about how what is said is distributed, amplified and personalized.
This distinction is essential. Freedom of speech protects the right to say offensive, unpopular things. In a truly liberal regime, you can promote absurd conspiracy theories and ideas that provoke outrage. The response to this form of communication is more communication, not censorship - this is the classical doctrine.
But algorithms do not protect communication, they transform it. They take a post with 10 organic views and amplify it to 10 million. They take a marginal opinion and make it appear mainstream. They take minor disagreement and polarize it into visceral hatred. Algorithms do not moderate, they manipulate.
The problem is not that there are people who believe in the flat Earth theory. The problem is that algorithms connect them all into a cohesive community, progressively serve them increasingly extreme content and transform curiosity into tribal identity. The content can be completely legal and even constitutionally protected. Architecture is what creates pathology.
How does it work?
To combat manipulation without becoming censors, we need to understand exactly how it works mechanically:
1. Your attention is captured through neurochemical optimization
Algorithms do not optimize for truth, usefulness or healthy democratic deliberation. They optimize for engagement - clicks, shares, time spent, comments. These metrics are proxies for neurochemical activation: dopamine, cortisol, oxytocin.
Content that generates maximum engagement has predictable characteristics:
• Moral provocation: outrage triggers sharing more than any other emotion
• Tribal simplification: us vs them, good vs evil, without nuance
• Violation of expectations: shocking, scandalous, counterintuitive
• Identity validation: you are right, your tribe is superior
The problem is not that people produce such content - they always have. The problem is that algorithms selectively choose it for massive distribution because it generates the most clicks.
A nuanced editorial of 2000 words? 100 views. An angry meme or a false story? 1 million. The algorithm “sees” that the second works and amplifies it. It does not “judge” by content and its quality, but “judges” by neurochemical performance.
2. Bubbles are created through collaborative filtering
You do not see what others see. Each user receives a personalized feed based on what has worked before for them and for people similar to them. The process:
• The algorithm observes that you react to content about increased taxes
• It groups you with others who react similarly
• It begins to serve you content that has worked for that group
• You react, confirming the model
• The algorithm becomes more confident, serves more specific content
• The cycle deepens
The result is the creation of personalized realities at industrial scale. Not just organic echo chambers, but bubbles manufactured algorithmically to maximize engagement for each cohort.
Someone who clicked on an article about immigration will begin to receive progressively more extremist content on this topic, not because there is a conspiracy, but because extremism generates greater engagement in their cohort.
3. Weaponization of social psychology
Algorithms exploit fundamental vulnerabilities of human cognition:
• Artificial social validation - the system shows that “10,000 people shared this” creating the impression of consensus. But those 10,000 were algorithmically selected from 3 billion users. They represent nothing about real popularity, just that the algorithm found a cohort that responds.
• Fabricated urgency - constant notifications create chronic alert states and it is deliberate design to capture attention.
• Intermittent validation - like slot machines, rewards (likes, shares) come unpredictably, creating addiction. It is not at all accidental, but social engineering of addiction.
• Social comparison - your feed constantly shows you the curated lives of others, triggering anxiety and envy. The system knows that emotionally aroused users = more engagement.
Does fact-checking and content moderation help?
Fact-checking assumes the problem is false information. Besides the problem of determining who can say information is false or not, we also have the following problems:
• Misinformation travels halfway around the world before truth puts its boots on, and when fact-checking appears, the narrative is already cemented
• Fact-checking can reinforce false beliefs through tribal identity provocation: “the elites are trying to censor us” (which may be true, but who can determine that anymore?)
• You produce fact-checks manually while misinformation is produced at industrial scale, amplified algorithmically
• Most manipulation does not include verifiable lies. It is selection, context, framing, emotionalization. How do you fact-check a technically true headline that manipulates those who don’t even click to read the content, i.e., is profoundly misleading?
Companies hire armies of moderators who delete content they consider problematic, but:
• Scaling is impossible - 500 hours of video per minute on YouTube make human moderation impossible
• AI moderation is limited - automated systems look for keywords, patterns, while sophisticated manipulators use dog whistles, memes, codes
• Arbitration is impossible - who decides what is “misinformation”? On polarized topics, each side sees the other’s fact-checking as political censorship (which is not excluded to be ultimately true)
• It does not solve architecture - you can delete the post, but the algorithm that amplified it remains unchanged, ready to amplify the next post
Tech companies do enough moderation to avoid public accountability, but not enough to solve the problem. It is “security theater”, that is the appearance of protection without real protection.
Why? Because the fundamental problem is their business model. Engagement-based advertising requires optimization for clicks. Polarizing content generates the most clicks. Real moderation would undermine profitability.
The DSA does not touch the advertising-based business model that requires engagement maximization, does not force separation between the social networking service and the content curation algorithm that manipulates it, does not force interoperability that would allow real competition between different content distribution approaches, does not limit the concentration of power that makes these companies able to absorb any compliance costs as simple operating expenses.
Freedom of speech: negative vs positive
We must distinguish between two concepts of freedom:
• Negative freedom which presumes the absence of interference, in the sense that the state does not stop you from speaking. This is the constitutionally protected freedom.
• Positive freedom which presumes the actual ability to be heard and to participate in the public space. Not only are you not censored, but you have the real possibility to contribute to the public conversation.
The problem with algorithmic social networks is that they protect negative freedom, but undermine positive freedom: you can technically post anything (negative freedom), but the algorithm decides if anyone will see it (lack of positive freedom)
A user with 100 followers who writes a nuanced analysis has the negative freedom to post it. But the algorithm buries it. An influencer with 1 million who posts a meme gets massive amplification. Both have the same “freedom of speech” formally, but their discursive power is absurdly different.
An even bigger problem is that algorithms do not just filter passively, but actively shape what type of communication becomes visible. If nuanced analyses are never amplified, people learn to stop producing them. If angry memes get massive amplification, production shifts in that direction.
Result: formal freedom of expression with increasing discursive uniformity to the types of content optimized for algorithms.
How can we combat manipulation without censorship?
The good news is that there are solutions that do not require content arbitration.
1. Mandatory algorithmic transparency
There can be no trade secrets when algorithms shape the public space, and here we are discussing three types of transparency:
• Individual transparency: Each user can see why they are shown what they are shown. “This post appears in your feed because you liked X, Y, Z and similar users reacted to that.” A vague answer is not enough, the explanation must be specific enough for the user to understand and contest it.
• Aggregate transparency: Independent researchers must be able to audit how the algorithm works at a system level. What types of content does it amplify? Which cohorts receive what? What biases are incorporated?
• Manipulation transparency: Platforms must disclose when content is part of a coordinated campaign (as it was in the attack on me), when accounts are suspiciously active on a certain type of content, when patterns suggest manipulation.
The criticism of transparency would be that revealing algorithms would allow gamification, i.e., manipulation of them by users (much like what we’ve observed happening on TikTok, when it’s revealed that this week posts with a certain song are more likely to be promoted). Nevertheless, we must be aware that algorithms are already massively gamed, and transparency would protect users too, who would know these things, not just manipulators, as is currently the case.
2. Separation of amplification from monetization
The current business model is this: the company profits when you are engaged, so it optimizes for engagement. The solution would be to separate those who amplify from those who monetize. That is an alternative business model in which users pay a subscription for access. The platform is incentivized to maximize long-term satisfaction, not short-term engagement. There is no longer a conflict between the user’s interest (quality information) and the platform’s interest (maximum clicks).
Criticism would come from those who will say this excludes those who cannot pay. However, the public interest would justify a state offering subscriptions on the model of public libraries. Digital infrastructure vital to democracy cannot depend on manipulative advertising.
3. Forced interoperability and multiple feeds
The problem we have is that we are locked into proprietary algorithms. If you don’t like Facebook’s feed, the only option is to leave completely. The solution would be for platforms to be forced to allow alternative feeds. You can use alternative algorithms, created by third parties, to curate the same content. Just as you are not forced to use Yahoo’s email interface to read Yahoo emails, but can use any email client, the same principle should apply to social media.
This way you would have competition between content curation algorithms created by various entities, not between network effects. If Facebook’s algorithm polarizes you, you can use an alternative algorithm that prioritizes epistemic diversity, on the same basic content.
4. Granular controls belonging to users (user-side)
Users must be able to control algorithm parameters, not just accept it as a black box:
• I want to see X% of opinions contrary to my own
• penalize emotionally intense content, prioritize nuanced analysis
• show me random sampling from the entire network, not just optimized for me
• limit viral amplification - I don’t want to see anything shared more than 1000 times
These are simple configurations that platforms refuse to offer, because they reduce engagement. But if users control the parameters, manipulation becomes much more difficult.
5. Viralization should be limited
I know it is counterintuitive, but content viralization is a bug, not a feature. Exponential distribution of unverified content is the recipe for manipulation.
What could we do?
• We could have cooling off periods, that is, posts cannot become viral instantly, but with a delay of hours or days in which they can be evaluated and contextualized
• We could have prompts for reflection, like “are you sure you want to share this? did you read the article or just the headline?”
• We could have amplification limits, that is, a post cannot be shared more than X times until it passes a human review or a time limit, slowing down the fabrication of artificial consensus
Critics could argue that this would slow the distribution of important or even urgent information. If the information were vital to you, it would be picked up by other sources, such as traditional media, so extreme speed favors manipulation, not information.
6. Mandatory algorithmic diversity
Platforms must randomly inject information diversity into the feed:
• X% of your feed is random sampling from opinions contrary to your bubble
• Y% is unpopular but high-quality content (judged by non-engagement metrics)
• Z% of your feed is in direct contradiction to your content consumption patterns
That is, to force you to diversify the content you are exposed to. You are not required to read it, you can ignore it, but at least have access to it. For example, in traditional media, if you present one perspective, you should also provide the contrary perspective (see the right of reply). This would be the algorithmic equivalent.
At the same time, we must be honest and recognize that there will always be a conflict between the curation necessary for a functional public communication space and unrestricted freedom of speech. There is no perfect solution. There are only compromises better or worse managed.
The variant of absolute freedom has been experimented with 4chan, a completely unmoderated platform, and the result was that toxic content was amplified, rational and balanced users left, only extremism remained.
Complete curation, that is zero “freedom” is also being experimented with in states where social media censorship is massive and where we have conformism, impossibility of expressing criticism, oppression. That is information security at the cost of freedom.
Liberal democracies must find the middle ground
Liberal democracies must find the middle ground: enough epistemic integrity for democratic functionality, enough freedom for dissent and pluralism.
The current problem is not that we chose a wrong compromise. It is that we did not choose consciously at all. We let private corporations decide the architecture of public space according to profitability criteria, not democratic interest.
The DSA creates the appearance of democratic control over digital platforms, generates impressive volumes of reports and audits suggesting serious oversight, but leaves untouched the private concentration of algorithmic power and the economic model that makes large-scale manipulation not just possible, but inevitable and profitable. It is a procedural micro-regulation that avoids confronting the reality that you cannot domesticate systems fundamentally optimized for exploiting human psychology by simply requiring documentation of this exploitation in an annual report.
It is as if you tried to limit the power of an absolute monarch by requiring him to keep detailed records of royal decisions and allow inspectors to observe the decision-making process, without ever introducing separation of powers, without creating a parliament that can challenge royal authority, without fragmenting the absolute concentration of executive, legislative and judicial power in the hands of one person. The monarch will keep impeccable records, allow observers in the throne room, publish annual reports on the state of the kingdom, but will remain the sole holder of supreme power.
Maybe the fundamental problem is that we treat social platforms as private goods, when in fact they are public infrastructure. The digital public space is as essential to democracy as public roads, electrical networks, water systems. It should not be privatized and operated exclusively for profit.
Any solution raises the question: Who decides the algorithm parameters?
Who establishes what “misinformation” means? Who defines “quality content”?
If the answer is “tech corporations”, we have the status quo. If the answer is “government”, we risk state censorship. If the answer is “experts”, we risk illegitimate technocracy. If the answer is “individual users”, we risk chaos and continued manipulation.
Maybe the answer is stratified and pluralistic:
• Constitutional level, that is fundamental limits on what algorithms are prohibited from doing (ex: they cannot deliberately polarize for profit), which should be set democratically, with constitutional protections
• Institutional level, that is the existence of independent multi-stakeholder bodies that set general industry standards
• Individual level, that is users control parameters within the constraints of the above and on the models already exposed earlier
Any space is already “regulated” - by algorithms, by business models, by technical architecture. There is no neutrality. The question is not “regulation or freedom”, but “regulation for corporate profit or regulation for democratic interest”.
Freedom of expression does not mean that algorithms have the freedom to manipulate content at will.
The challenge for liberal democracies is to build digital architectures that:
• Protect the right to say anything (content)
• But limit the power of manipulative amplification (distribution)
• Without creating tools that can easily be transformed into censorship
It is a dangerous balance. But the alternative, surrendering public space to algorithms optimized only for profit, guarantees the slow death of liberal democracy.

