Trebuie să recunosc că articolul dumneavoastră m-a intrigat. Asta pentru că a atins un subiect la care mă gândesc de mult. Acum îmi dau seama că ceea ce mă frapează este că în ambele domenii - drept și psihoterapie - vedem că oamenii au aceeași iluzie, aceea că abordarea complexă umană poate fi redusă la algoritmi.
Diferența este că în drept AI-ul poate fi un instrument auxiliar util (cum subliniați), în timp ce în psihoterapie riscă să denatureze natura procesului de vindecare; de exemplu, o ședință de hipnoză cu două voci, ale AI, pentru fiecare emisferă cerebrală, poate fi revoluționară, ami ales că vocile AI chiar se pot sincroniza mult mai bine decât doi oameni. Scriptul poate fi scris în avans. Doar că acest script trebuie corelat cu răspunsurile în timp real ale clientului, nu poate fi rulat cap-coadă. Mai mult, nu poate fi același pentru mai mulți oameni (sigur, mai puțin în cazuri de speactacol). Personal am o problema și cu terapia la distanță, prin zoom dar, se pare, că ăsta este viitorul și va trebui să accept. Să mă adaptez.
Întrebarea care mă obsedează este cum recunoaștem când un domeniu poate beneficia de automatizare și când automatizarea îi distruge esența? Care ar putea să fie criteriile?
Eu cred ca interacțiunea umană este foarte importantă în domeniile socio-umane. De ex. am publicat un întreg studiu în pandemie susținând teza că nu sunt de acord cu ținerea online a ședințelor de judecată. De aceea nu aș putea fi de acord nici cu ședințe de psihoterapie la distanță, prin zoom, când probabil analizezi nu doar ce spune omul, ci și cum transmite acele informații. În cazul AI-ului lucrurile se îndepărtează și mai mult de uman, deci nu pot fi de acord cu AI-urile avocați sau judecători. Pe lângă modalitatea în care astfel de modele și sisteme sunt construite, trebuie să ne gândim și la riscurile ce țin de securitate, de ex. Nu e chiar atât de dificil ca ele să fie manipulate de un terț. E adevărat, nu că omul nu ar putea fi manipulat într-un mod facil, după cum vedem, dar parcă aș accepta mai ușor eroarea umană și aș fi mult mai circumspectă la eroarea tehnică.
Trebuie să recunosc că articolul dumneavoastră m-a intrigat. Asta pentru că a atins un subiect la care mă gândesc de mult. Acum îmi dau seama că ceea ce mă frapează este că în ambele domenii - drept și psihoterapie - vedem că oamenii au aceeași iluzie, aceea că abordarea complexă umană poate fi redusă la algoritmi.
Diferența este că în drept AI-ul poate fi un instrument auxiliar util (cum subliniați), în timp ce în psihoterapie riscă să denatureze natura procesului de vindecare; de exemplu, o ședință de hipnoză cu două voci, ale AI, pentru fiecare emisferă cerebrală, poate fi revoluționară, ami ales că vocile AI chiar se pot sincroniza mult mai bine decât doi oameni. Scriptul poate fi scris în avans. Doar că acest script trebuie corelat cu răspunsurile în timp real ale clientului, nu poate fi rulat cap-coadă. Mai mult, nu poate fi același pentru mai mulți oameni (sigur, mai puțin în cazuri de speactacol). Personal am o problema și cu terapia la distanță, prin zoom dar, se pare, că ăsta este viitorul și va trebui să accept. Să mă adaptez.
Întrebarea care mă obsedează este cum recunoaștem când un domeniu poate beneficia de automatizare și când automatizarea îi distruge esența? Care ar putea să fie criteriile?
Eu cred ca interacțiunea umană este foarte importantă în domeniile socio-umane. De ex. am publicat un întreg studiu în pandemie susținând teza că nu sunt de acord cu ținerea online a ședințelor de judecată. De aceea nu aș putea fi de acord nici cu ședințe de psihoterapie la distanță, prin zoom, când probabil analizezi nu doar ce spune omul, ci și cum transmite acele informații. În cazul AI-ului lucrurile se îndepărtează și mai mult de uman, deci nu pot fi de acord cu AI-urile avocați sau judecători. Pe lângă modalitatea în care astfel de modele și sisteme sunt construite, trebuie să ne gândim și la riscurile ce țin de securitate, de ex. Nu e chiar atât de dificil ca ele să fie manipulate de un terț. E adevărat, nu că omul nu ar putea fi manipulat într-un mod facil, după cum vedem, dar parcă aș accepta mai ușor eroarea umană și aș fi mult mai circumspectă la eroarea tehnică.