Eroare 404: Umanitate not found în sala de judecată / Error 404: Humanity not found in the courtroom
După vizionarea filmului spaniol „Justicia Artificial" (2024) / After watching the Spanish movie "Justicia Artificial" (2024)
Romanian version
Filmul lui Simón Casal nu este doar o poveste de ficțiune - este o oglindă în care ne putem vedea viitorul foarte apropiat. În 2028, guvernul spaniol din film propune un referendum pentru a înlocui judecătorii cu un sistem de inteligență artificială, promițând o justiție „automatizată și depolitizată". Carmen Costa, o judecătoare respectată, descoperă adevărul înfricoșător din spatele acestei tehnologii aparent perfecte.
Tentația unei „justiții perfecte"
Când vedem zilnic știrile despre justiția din România, când auzim de dosare care se durează ani întregi până la prescripție, de pensii speciale ale magistraților, de decizii care par complet străine de dreptate, cine nu s-ar gândi că un algoritm ar putea face mai bine?
Este o tentație mare, nu-i așa? O justiție rapidă, ieftină, fără întârzieri, fără corupție, fără privilegii. Un sistem care să aplice legea la fel pentru toți, indiferent de statutul social sau de grosimea portofelului. Pare un vis frumos.
Dar filmul îmi amintește de ceva crucial pe care îl spune chiar Carmen Costa: AI-ul se uită numai în spate, nu creează jurisprudență nouă, preia greșelile făcute în trecut, care, din greșeli individuale devin erori sistemice. Aceasta este poate cea mai devastatoare critică pe care i-o poți aduce unui sistem de justiție bazat pe algoritmi.
Sclavia trecutului: Cum AI-ul perpetuează erorile, care devin sistemice
Ce se întâmplă când antrenezi un algoritm pe baza deciziilor judecătorești din trecut? Foarte simplu: îi transmiți toate prejudecățile, toate nedreptățile, toate greșelile pe care le-am făcut de-a lungul istoriei.
Dacă în trecut judecătorii au fost mai severi cu anumite categorii sociale, algoritmul va prelua această prejudecată. Dacă în trecut au existat discriminări pe criterii de rasă, sex sau statut economic, sistemul AI va considera că acestea sunt „normale" și va continua să le aplice.
Cum poate evolua justiția dacă rămâne blocată în deciziile din trecut? Să ne gândim la momentele importante din istoria dreptului: când s-a recunoscut că segregația rasială este neconstitutională, când s-au acordat drepturi egale femeilor, când s-au schimbat concepțiile despre pedepsele capitale. Aceste evoluții au venit de la oameni care au îndrăznit să rupă cu trecutul, să creeze jurisprudență nouă.
Un algoritm nu va fi niciodată capabil să facă acest salt în evoluție. El va rămâne prizonierul datelor pe care a fost antrenat.
Costurile
Dar ce ne costă cu adevărat dacă adoptăm AI-ul în justiție? Să nu ne lăsăm orbiți de aparenta economie de resurse. Costurile reale sunt mult mai adânci și mai dureroase.
Costul umanității: Când un părinte disperat fură medicamente pentru copilul bolnav, algoritmul va vedea doar „furt". Nu va vedea disperarea, nu va înțelege contextul, nu va putea tempera pedeapsa cu înțelegerea circumstanțelor. Cine va explica algoritmului diferența dintre un act de disperare și unul cu adevărat răuvoitor?
Costul evoluției: Fiecare decizie judecătorească importantă din istorie a fost o rupere de la precedent. Cum va evolua dreptul dacă îl blocăm în algoritmii bazați pe trecut?
Costul responsabilității: Când algoritmul greșește - și va greși -, cine răspunde?
Falsa promisiune a obiectivității
De ce ne mințim singuri că algoritmul ar fi obiectiv? Orice sistem AI este rezultatul deciziilor subiective ale celor care l-au programat. Care date să includă? Ce importanță să atribuie diferitelor criterii? Ce excepții să recunoască?
În film, descoperim că sistemul conține „coduri VIP" care favorizează anumite persoane. Nu este aceasta exact tipul de corupție pe care vrem să o eliminăm? Doar că acum este codificată, invizibilă, mult mai periculoasă pentru că pare „științifică".
Cine ne garantează că algoritmul nu a fost programat să favorizeze anumite interese? Dacă acum putem cel puțin să îl acuzăm pe judecător de părtinire, pe cine vom acuza când părtinirea este ascunsă în milioane de linii de cod? Mai important, ne vom mai putea da seama că este vorba despre părtinire?
Cum vom ști că sistemul nu a fost manipulat de interese obscure sau atacat cibernetic? În film, sistemul devine instrumentul unei conspirații. În realitate, cine ne garantează că nu se va întâmpla la fel?
Întrebarea fundamentală: Cui aparține justiția?
Nu cumva predăm administrarea justiției unor corporații prin astfel de sisteme? Microsoft, Google, IBM - aceste companii vor controla algoritmii care ne vor judeca. Corporațiile urmăresc profitul, nu dreptatea. Când acționarii vor cere profituri mai mari, ce se va întâmpla cu „justiția" noastră?
Iar dacă nu aparține corporației, ci statului, nu cumva aparține politicului? Să ne imaginăm că partidul de la putere controlează algoritmii de justiție. Cât mai durează până când opoziția devine „algoritmic" vinovată? Unde mai este independența justiției când executivul controlează „judecătorul"?
Separația puterilor în era digitală
Separația puterilor în stat nu este o invenție academică - este garanția că nicio putere nu devine absolută. Când algoritmul înlocuiește judecătorul, cine controlează a treia putere în stat? Cel care controlează codul.
Ce se întâmplă cu dreptul la apărare când „judecătorul" este un algoritm pe care nu îl poți întrerupe, nu îl poți convinge, nu poate înțelege nuanțele? În sala de judecată, avocatul poate să intervină, să clarifice, să prezinte circumstanțe atenuante. Cum explici unui algoritm situația personală a clientul tău?
Eficiența: soluție sau capcană?
Da, justiția trebuie să fie eficientă plecând de la ideea că o justiție întârziată nu mai este justiție. Dar eficiența nu poate veni prin sacrificarea umanității.
AI-ul poate fi un instrument excelent pentru documentarea cazurilor, căutarea jurisprudenței, analiza probelor. Dar să înlocuiască judecătorul? Niciodată.
Am văzut în cariera mea cazuri în care o întârziere a procedurii a permis descoperirea unor probe noi, cruciale. Am văzut judecători care au găsit soluții creative pentru situații care păreau fără ieșire. Un algoritm ar fi închis aceste uși pentru totdeauna.
Pericolul supraîncrederii în AI
Chiar și când vorbim despre utilizarea AI-ului doar ca instrument de sprijin, nu ca înlocuitor, trebuie să fim extrem de atenți pentru că un judecător uman s-ar putea baza mai mult decât ar trebui pe rezultatele unui AI.
Ce se întâmplă când judecătorul începe să se bazeze 100% pe recomandările algoritmului? Când devine prea comod să accepți concluzia mașinii în loc să analizezi personal fiecare caz? Riscăm să ajungem la o justiție „hibrid" în care omul devine doar un instrument de validare a deciziilor algoritmului.
Cum ne asigurăm că judecătorul rămâne cu adevărat independent față de sugestiile AI-ului? Pentru că tentația de a urma „sfatul științific" al mașinii poate fi foarte mare, mai ales când ești sub presiunea timpului și a volumului mare de dosare.
Prețul adevărat al „progresului"
Nu cumva, în goana după eficiență și obiectivitate, renunțăm la cea mai prețioasă componentă a justiției - umanitatea? Când algoritmul va condamna la închisoare pe foarte mulți ani un tânăr pentru o greșeală de moment, pentru că „statisticile arată" că ratele de recidivă în cazul său sunt mari, cine îi va mai face dreptate?
Este mai ieftină o justiție algoritmică? Poate pe termen scurt. Dar ce preț punem pe încrederea în sistem? Pe sentimentul că ai fost judecat de un seamăn care te înțelege? Pe șansa de a fi iertat pentru greșelile umane?
Concluzie: Justiția este a oamenilor și pentru oameni
Filmul "Justicia Artificial" nu este doar o poveste de ficțiune - este un avertisment. Carmen Costa, protagonista, întruchipează conflictul dintre eficiența rece a mașinilor și căldura imperfectă a umanității.
Nu sunt împotriva tehnologiei în justiție - sunt împotriva înlocuirii omului cu mașina în cea mai umană dintre activități: judecata.
Da, sistemul actual de justiție are probleme. Da, sunt întârzieri, costuri, chiar și corupție. Dar soluția nu este să renunțăm la elementul uman - este să îl îmbunătățim.
Ideea de bază este că justiția este a oamenilor și așa trebuie să rămână. Nu pentru că oamenii sunt perfecți - nu sunt. Ci pentru că doar oamenii pot înțelege alți oameni. Doar un om poate vedea în spatele literei legii spiritul ei. Doar un om poate tempera rigiditatea normei cu mila, înțelegerea, circumstanțele concrete.
Când vom reuși să înțelegem că eficiența absolută în justiție este o iluzie periculoasă, poate vom evita capcana în care cade societatea din film. Pentru că, în final, justiția nu este despre aplicarea mecanică a unor reguli - este despre oameni care încearcă să găsească cea mai bună soluție pentru alți oameni.
Și asta o poate face doar un om care înțelege că justiția umană în imperfecțiunea sa este infinit mai valoroasă decât algoritmul perfect în lipsa sa de umanitate.
English Version
Simón Casal's film is not just a fictional story - it is a mirror in which we can see our very near future. In 2028, the Spanish government in the film proposes a referendum to replace judges with an artificial intelligence system, promising "automated and depoliticized" justice. Carmen Costa, a respected judge, discovers the terrifying truth behind this seemingly perfect technology.
The temptation of "perfect justice"
When we see daily news about justice in Romania, when we hear about cases that drag on for years until they reach the statute of limitations, about special pensions for magistrates, about decisions that seem completely alien to justice, who wouldn't think that an algorithm could do better?
It's a great temptation, isn't it? Quick, cheap justice, without delays, without corruption, without privileges. A system that applies the law equally for everyone, regardless of social status or wallet thickness. It seems like a beautiful dream.
But the film reminds me of something crucial that Carmen Costa herself says: AI only looks backward, it doesn't create new jurisprudence, it takes over mistakes made in the past, which, from individual errors become systemic errors. This is perhaps the most devastating criticism you can bring to an algorithm-based justice system.
The slavery of the past: How AI perpetuates errors, which become systemic
What happens when you train an algorithm based on past judicial decisions? Very simple: you transmit to it all the prejudices, all the injustices, all the mistakes we have made throughout history.
If in the past judges were more severe with certain social categories, the algorithm will take over this prejudice. If in the past there were discriminations based on race, sex or economic status, the AI system will consider these as "normal" and will continue to apply them.
How can justice evolve if it remains blocked in past decisions? Let's think about important moments in legal history: when racial segregation was recognized as unconstitutional, when equal rights were granted to women, when conceptions about capital punishment changed. These evolutions came from people who dared to break with the past, to create new jurisprudence.
An algorithm will never be capable of making this evolutionary leap. It will remain a prisoner of the data on which it was trained.
The Costs
But what does it really cost us if we adopt AI in justice? Let's not be blinded by the apparent economy of resources. The real costs are much deeper and more painful.
The cost of humanity: When a desperate parent steals medicine for a sick child, the algorithm will only see "theft." It won't see the desperation, won't understand the context, won't be able to temper the punishment with understanding of circumstances. Who will explain to the algorithm the difference between an act of desperation and a truly malicious one?
The cost of evolution: Every important judicial decision in history was a break from precedent. How will law evolve if we block it in algorithms based on the past?
The cost of responsibility: When the algorithm makes mistakes - and it will -, who answers?
The false promise of objectivity
Why do we lie to ourselves that the algorithm would be objective? Any AI system is the result of subjective decisions made by those who programmed it. Which data to include? What importance to attribute to different criteria? What exceptions to recognise?
In the film, we discover that the system contains "VIP codes" that favor certain people. Isn't this exactly the type of corruption we want to eliminate? Only now it's codified, invisible, much more dangerous because it seems "scientific."
Who guarantees that the algorithm wasn't programmed to favor certain interests? If now we can at least accuse a judge of bias, who will we accuse when bias is hidden in millions of lines of code? More importantly, will we still be able to realise that it's about bias?
How will we know that the system hasn't been manipulated by obscure interests or cyber-attacked? In the film, the system becomes the instrument of a conspiracy. In reality, who guarantees that the same won't happen?
The fundamental question: Who does justice belong to?
Don't we hand over the administration of justice to corporations through such systems? Microsoft, Google, IBM - these companies will control the algorithms that will judge us. Corporations pursue profit, not justice. When shareholders demand higher profits, what will happen to "our" justice?
And if it doesn't belong to the corporation, but to the state, doesn't it belong to politics? Let's imagine that the ruling party controls the justice algorithms. How long before the opposition becomes "algorithmically" guilty? Where is the independence of justice when the executive controls the "judge"?
Separation of powers in the digital era
Separation of powers in the state is not an academic invention - it is the guarantee that no power becomes absolute. When the algorithm replaces the judge, who controls the third power in the state? The one who controls the code.
What happens to the right of defence when the "judge" is an algorithm you can't interrupt, can't convince, can't understand nuances? In the courtroom, the lawyer can intervene, clarify, present mitigating circumstances. How do you explain your client's personal situation to an algorithm?
Efficiency: solution or trap?
Yes, justice must be efficient starting from the idea that delayed justice is no longer justice. But efficiency cannot come through sacrificing humanity.
AI can be an excellent tool for documenting cases, searching jurisprudence, analysing evidence. But to replace the judge? Never.
I have seen in my career cases where a procedural delay allowed the discovery of new, crucial evidence. I have seen judges who found creative solutions for situations that seemed hopeless. An algorithm would have closed these doors forever.
The danger of over-reliance on AI
Even when we talk about using AI only as a support tool, not as a replacement, we must be extremely careful because a human judge might rely more than they should on the results of an AI.
What happens when the judge starts to rely 100% on the algorithm's recommendations? When it becomes too comfortable to accept the machine's conclusion instead of personally analysing each case? We risk reaching a "hybrid" justice where humans become just an instrument for validating algorithmic decisions.
How do we ensure that the judge remains truly independent from AI suggestions? Because the temptation to follow the machine's "scientific advice" can be very strong, especially when you're under time pressure and a large volume of cases.
The real price of "progress"
Don't we, in the rush for efficiency and objectivity, give up the most precious component of justice - humanity? When the algorithm condemns a young person to many years in prison for a momentary mistake, because "statistics show" that recidivism rates in their case are high, who will do them justice?
Is algorithmic justice cheaper? Maybe in the short term. But what price do we put on trust in the system? On the feeling that you were judged by a fellow human who understands you? On the chance to be forgiven for human mistakes?
Conclusion: Justice belongs to people and is for people
The film "Justicia Artificial" is not just a fictional story - it is a warning. Carmen Costa, the protagonist, embodies the conflict between the cold efficiency of machines and the imperfect warmth of humanity.
I am not against technology in justice - I am against replacing humans with machines in the most human of activities: judgment.
Yes, the current justice system has problems. Yes, there are delays, costs, even corruption. But the solution is not to give up the human element - it is to improve it.
The basic idea is that justice belongs to people and must remain so. Not because people are perfect - they are not. But because only people can understand other people. Only a human can see behind the letter of the law its spirit. Only a human can temper the rigidity of the norm with mercy, understanding, concrete circumstances.
When we manage to understand that absolute efficiency in justice is a dangerous illusion, maybe we will avoid the trap that the society in the film falls into. Because, in the end, justice is not about the mechanical application of rules - it is about people trying to find the best solution for other people.
And only a human who understands that human justice in its imperfection is infinitely more valuable than the perfect algorithm in its lack of humanity can do that.
This is a deepfake created with Grok after I provided it with one of my photographs.