Pot mașinile gândi?



După cum bine știm din istoria recentă a științelor, secolul XX ne-a oferit, datorită schimbărilor de paradigme, un progres tehnologic rapid și complex. Ne-am întâlnit cu o serie de aparate electronice pe care în trecut, le-am fi putut doar visa, iar astăzi abia dacă ne-am putea imagina lumea în care viețuim fără acestea.
Televizorul, telefonul mobil, calculatorul, laptopul, smartphone-urile sau tabletele electronice sunt doar câteva dintre ustensilele societății de astăzi. Aproape tot ce folosim in viața de zi cu zi este computerizat. Oriunde ne-am uita putem găsi o mașină Turing mai mult sau mai puțin complexă.

Mașina Turing este un model de calcul abstract care stă la baza tuturor modelelor de software, aceasta constă dintr-o bandă infinită, pe care pot fi scrise simboluri, un cap de scriere-citire, care poate fi plimbat pe suprafaţa benzii, şi o unitate de control, care cuprinde un număr finit de reguli care indică maşinii ce să facă la fiecare mişcare în funcţie de litera curentă de pe bandă şi starea în care maşina se află. (Turing 1948)
Sistemele algoritmice care fac posibilă funcționarea acestor minunății de unități IT și gadget-uri nu se opresc aici. Tot secolul trecut ne-a făcut cunoștiință și cu robotul modern. Nu a mai durat mult până acesta s-a dezvoltat în așa măsură încât poate simula un tip de gândire: mașinile de astăzi raționează.

Aici ne confruntăm deja cu o problemă a definirii conceptelor. Ce este gândirea? Se rezumă aceasta doar la raționamente? Este greșit acest tip de reducționism propus de funcționalism? De ce este greșit? Vor domina mașinile rasa umană in ceea ce privește inteligența prin faptul ca raționează mai bine si mai repede?

Ce știm până acum?
Mașinile simulatoare de gândire funcționează prin folosirea sintaxei. Acestea folosesc structuri funcționale pentru a face operații. Ele se bazează pe silogisme de genul 1) X este Y; 2) X nu este Y; 3) Dacă X este Y, atunci Z 4) Dacă X nu este Y, atunci W. Unde W,X,Y sau Z sunt variabile care pot fi introduse din afara sistemului. Dacă introducem într-un astfel de
sistem variabile, asta nu denotă faptul că sistemul înțelege input-ul, acesta pur și simplu îl echivalează cu rolul jucat de X,Y sau Z în funcție.

Mai sus am menționat faptul că variabilele trebuie introduse din afară, dar asta nu înseamnă că cineva anume trebuie de fiecare dată sa introducă datele necesare pentru compilarea unui program. Încă din secolul trecut periferice precum microfoane, camere video, senzori de lumină, senzori de mișcare și difuzoare au fost conectate la anumite mașini. Acestor roboți li s-au implementat „organe” de simț. .

Datorită celor care și-au dedicat timpul dezvoltării software-urilor, mai ales așa zise-lor drivere, partea responsabilă de funcțiile input-output a dat naștere unor mașinării remarcabile din acest punct de vedere. Astăzi avem roboți care pot auzi, pot vedea, pot vorbi, și pot simți, sau macar așa avem noi impresia datorită feedback-ului aproape perfect oferit de aceștia.

Astfel de lucruri ne aduc în prim plan o imagine problematică a lumii contemporane, aceea că roboții ne vor depăși in gândire. Ceea ce era pană acum specific omului a fost copiat de catre propria-i creație.
Domeniul cinematografic a fost pe fază să surprindă o astfel de viziune în filme precum Matrix (Matrix - 1999), Artificial Intelligence (Artificial Intelligence - 2001), 2001: A Space Odyssey (2001: A Space Odyssey - 1968) sau I-Robot (I-Robot - 2005). Înainte ca filmele de genul sa fie produse, autorii de science fiction au prevăzut o înflorire a planului tehnologic în pofida umanității. Printre aceștia îi putem aminti pe Isaac Asimov și pe Arthur C. Clarke. În lucrările acestora citim despre lumi științifico-fantastice în care inteligența artificială dorește să pună stăpânire pe umanitate.(Asimov 1950) (Clarke 1968)

Totuși, oricât de complexe și de potente ar fi inteligențele artificiale, există câteva probleme filosofice care ne arată o serie de argumente ce stau împotriva unei teze de genul „ Mașinile pot gândi pentru că ele au conștiință”

Astfel, în aceasta lucrare voi adopta poziția contra posibilității de a gândi a inteligențelor artificiale și posesia de către acestea a unei conștiințe.

Prima problemă care se împotrivește inteligenței artificiale este adusă chiar de Alan Turing prin testul relativ faimos emis de acesta. Alan Turing a creeat acest tip de evaluare pentru a determina dacă o mașină inteligentă poate gândi sau nu.

Testul Turing constă în urmatorul experiment: O anume persoana trebuie să discearnă între o mașină de calcul și o altă persoană prin intermediul unei interfețe de tipul chat (ea nu poate vedea cine se află la celălalt capăt al chatroom-ului). Persoana trebuie să pună o serie de întrebări în limbaj natural la care mașina de calcul va răspunde. Dacă răspunsurile mașinii sunt atât de bune încât cel care pune întrebările nu reușește să-și dea seama exact cine este o persoană și cine o mașină, atunci mașina a trecut testul și se poate spune că ea gândește.

La momentul conceperii testului de către Turing, nicio mașină nu a putut trece testul. Alan Turing a prezis ca pană în anul 2000 se va creea o mașină capabilă să răspundă corect la 30% din întrebări, dar pentru a trece testul este nevoie de un procentaj de 70%.

Încă nu există o mașină care să treacă acest test, din aceasta rezultă ca mașinile din prezent nu gândesc.
Rămâne însă de văzut dacă va fi construită vreodată o mașină care va trece testul. Creatorii ei se vor confrunta cu elaborarea unui sistem care să depășeasca bariere de natura culturala, ortografică și de sintaxa complexă. Dar oare acea mașină, chiar dacă îl poate pacăli cel ce o interoghează, este ea o mașină gânditoare?

În ceea ce privește vreo posibilitate a mașinilor inteligente de a gândi, John Searle nu este de acord cu aceasta. Filosoful merge chiar până la criticarea testului Turing, arătând lacunele acestuia.
Premisele de la care pornește Searle sunt următoarele:
1) Programele sunt pur formale (sintaxa);
2) Mințile umane au conținut mental (semantică);
3) Sintaxa singură nu poate constitui și nici nu este suficientă pentru conținutul semantic;
4) De aceea, programele nu pot să constituie de unele singure minți și nu sunt suficiente pentru existența acestora.

Searle definește conceptele de inteligență artificială puternică, respectiv slabă. Acesta o acceptă pe cea din urmă deoarece ea presupune ca mașinile inteligente să se comporte așa zis inteligent, pe când cea dintâi face un pas sau chiar doi înainte, presupunând existența unei minți in spatele mașinii, iar prin urmare posibilitatea acesteia de a gândi.

Filosoful american ne propune un alt tip de experiment contra existenței gândirii în cadrul unei mașini dotate cu inteligență artificială, numit Camera Chinezească: Un vorbitor
monolingual de limbă X (unde X=orice limbă mai puțin limba chineză) este închis într-o cameră. În cameră are un manual care conține un set de instrucțiuni de calcul pentru a răspunde la întrebări în limba chineză. Cu ajutorul manualului, individul respectiv poate trece testul Turing. Însă aceasta nu presupune înțelegerea de către individ a cuvintelor limbii chineze. Dacă acest individ nu înțelege limba chineză, înseamna ca nici o mașină dotata cu inteligență artificială nu poate înțelege limba chineză. (Searle 1980)

Trebuie să știm faptul că aceste sistemele de calcul folosesc un set de funcții sintactice, fie ele sau nu de mai multe nivele, dar cărora le lipsește conținutul semantic, care determină înțelegerea variabilelor cu care ele lucrează.

Într-un astfel ce caz, se ridică problema următoare. Poate exista gândire fără înțelegere? Putem gândi ceva despre un lucru fără a-l înțelege?

John Searle se folosește de argumentul Camerei Chinezești pentru a se împotrivi tezei despre minte venite din partea funcționalismului. Astfel, Searle se bazează pe existența unei minți / conștiințe ca fiind garant sau condiție de existența a gândirii. El desfințeaza posibilitatea existenței unei conștiințe într-un sistem de tip funcționalist prin demonstrarea lipsei semanticismului într-o astfel de entitate.

Prin urmare, roboții nu pot înțelege o limbă, deci ei nu pot aloca sensuri simbolurilor din propriul lor sistem. Altfel spus, acestora le lipsește o minte, care poate înțelege un limbaj natural. Inteligențele artificiale se folosesc de un limbaj computațional (software) pentru a opera sintactic cu simboluri dintr-un limbaj natural (în cazul dat de Searle, limba chineză) fără a-l înțelege.

Dacă ar fi să rezumăm argumentul lui Searle am putea spune că filosoful se folosește de reductio ad absurdum (metoda reducerii la absurd). Pe scurt, aceasta sună în următorul fel:
Există un limbaj natural L. Să spunem că există un „program pentru L” care ne permite să conversăm fluent în limbajul natural L. Acest program poate fi rulat pe orice sistem computațional. Definim sistem computațional ca orice sistem, fie aceste uman sau non-uman, care poate rula un program.
1) Dacă inteligența artificială tare este adevărată, atunci trebuie să existe un program pentru limba chineză astfel încât orice sistem computațional care rulează acel program va înțelege limba chineză;
2) Eu aș putea rula un program pentru limba chineză fără a înțelege chineza;
3) Deci, inteligența artificială tare este falsă.

Camerei Chinezești a lui John Searle i s-au adus o serie de reproșuri. Una dintre obiecții este aceea că individul din cameră este doar o parte dintr-un sistem, nu sistemul însăși, astfel acesta joacă doar rolul de procesor și nu a unui sistem computațional complet.

Susținătorii acestei acestui punct de vedere spun că omul, ca procesor, nu înțelege limba chineză, dar că întregul sistem, cu plăcuțele sale de memorie și cu manualul cu instrucțiuni o poate face.
Aceștia ridică un raspuns de natură categorială împotriva argumentului lui Searle, punând accentul pe capacitățile epistemologice care există sau nu, în funcție de raportul parte-întreg.

Kurzweil, adept al testului Turing, spune că John Searle se contrazice atunci când afirmă faptul că mașina inteligentă vorbește limba chineză, dar aceasta nu poate înțelege limba pe care o vorbește. (Kurzweil 2000)
Răspunsul lui Searle este că individul din cameră ar putea memora manualul de instrucțiuni după care ar ieși din cameră și ar putea chiar să țină o conversație in limba chineză. În ciuda acestui fapt, individul nu va avea niciun mijloc pentru a putea aloca semnificație simbolurilor formale. Omul va fi, în acest caz întregul sistem, dar nu va înțelege limba chineză. Spre exemplu, el nu va putea înțelege sensul cuvântului hamburger în chineză. (Cole 2009)

Un alt argument care se opune posibilității de gândire a sistemelor computaționale este cel de qualia.
Qualia, cu singularul quale, este un concept relativ recent adus în filosofia minții. Qualia constă în experiențele subiective din câmpul fenomenal pe care le accesăm cu ajutorul introspecției. Felul în care experimentăm ceva, calitatea experienței, este qualia. „Cum experimentăm culoarea roșie?” (Jackson 1982)
Qualia este strict subiectivă, poate fi accesată numai de subiect, de cel care are experiența. Thomas Nagel, în Cum e să fii un liliac? dezvoltă conceptul de qualia. (Nagel 1974)

Acest concept este folosit pentru a argumenta existența cunoașterii subiective și natura acesteia, anume că este inaccesibilă celor din afara minții subiectului. Trebuie adăugat faptul că doar o entitate dotată cu conștiința poate avea qualia.

Roboții, mașinile sau orice sistem dotat cu inteligență artificială se afla în imposibilitatea de a avea astfel de experiențe de natură calitativă. Acestea se folosesc de informații aflate într-o bibliotecă informațională. Sunt precum Mary din experimentul lui Frank Jackson. Cunosc totul despre culori, sunete etc. dintr-un manual, dar nu le-au experimentat niciodată. (Jackson 1982)

Problema qualiei este strict legată de conștiința și prin urmare de gândire. Gândirea introspectivă oferă acces la experiențele calitative, acestea la rândul lor sunt expuse în câmpul fenomenal creând conținuturi mentale. Aceste conținuturi mentale determină existența conștiinței.

O obiecție la argumentul qualia ar fi următorul. Sistemelor computaționale li se pot adăuga diferiți senzori ( de lumină, sunet, mișcare etc.), acestea jucând rolul de simțuri, prin urmare aceste mașini inteligente ar fi în stare să simtă și să perceapă. Deci acestea pot până la urmă să experimenteze. Dacă au experiențe, atunci au qualia.

Să zicem că acceptăm faptul de a nu putea determina existența experiențelor subiective de tip calitativ la ființe precum zombie, (ființe concepute metafizic) sau animale. Însă, putem spune că nu există qualia în cadrul sistemelor artificiale datorită felului acestora de funcționare. Să luăm de exemplu o cameră de filmat (senzor de lumină) care ar juca rolul de „organ de simț” vizual, fiind atașată unui robot. Am fi tentați acum să spunem, precum contra-argumentul din paragraful de mai sus, că robotul va vedea, prin urmare va percepe, deci va avea o experiența vizuală calitativă. Totul bine și frumos până ajungem la partea de software care decodează informația transmisă de camera de filmat. Driver-ul care se ocupă cu această parte folosește un algoritm pentru a descifra informația provenită din periferic, adică are un rol de tip funcțional (acesta presupune folosirea funcțiilor). Input-ul primit de driver este primit în Hz (hertzi), adică în sistemul internațional de măsura pentru frecvență. În acest caz al frecvenței la care lumina este reflectată de obiectele dintr-un plan spațio-temporal pe care camera de filmat îl observă. Să zicem că instrumentul de luat vederi este îndreptat către un obiect de culoare roșie, un Ferarri roșu. Mașina exotică va reflecta lumina la o frecvență între 400 și 484 THz (Tera-hertzi; 1 THz = 1x Hz). Acesta va fi input-ul procesat de driver, care îl va trece prin algoritm pentru ca în final sa ne dea (să zicem pe un monitor atașat robotului) un output „Roșu”.
Înainte de a ne oferi output-ul, dirverul va corela informația descifrată cu un o informație deja introdusă de un programator. Software-ul lucrează cauzal, acesta este prestabilit să ne ofere
output-ul respectiv doar dacă primește un anumit input (în cazul nostru, fasciculi de lumină reflectați între 400 și 484 THz).

Vedem astfel că robotul nu experimentează nicio culoare, ci pur și simplu oferă un răspuns prestabilit odată ce primește o anumită informație prin intermediul unui senzor de lumină. Tot ceea ce face mașina inteligentă este să ruleze un program. Aceasta nu are qualia. Dacă qualia determină existența unei conștiințe, atunci nu putem spune că există vreo conștiință înăuntrul acelei entități.

Concluzie

Până acum știm că momentan, datorită Testului Turing, nu există vreo mașină inteligentă care poate să gândeasca. Apoi, am văzut ca filosoful american, John Searle, exclude și posibilitatea ca să fie vreo astfel de mașină inventată vreodată. Cu excepția uneia care să lucreze cu un conținut semantic.
Qualia ne oferă o perspectivă de tip epistemologico-ontologică, în cadrul căreia mașinile inteligente nu pot avea experiențe calitative, fiind deprivate de conștiință, care condiționează existența gândirii. Nu putem gândi fără a avea conținut mental (qualia).
Ar mai exista argumente în ceea ce privește existența conștiinței care supervine unor sisteme computaționale. Altfel spus, sistemul este un mediu propice pentru animarea acestuia de către o conștiință. Însă acest tip de argument ne aduce într-un impas epistemologic în care nedeterminarea domină o astfel de teorie.
Într-un final tot ceea ce putem conclude este că roboții se comportă inteligent, iar posibilitatea existenței unei conștiințe gânditoare este îndoielnică. Dar putem spune oare cu certitudine că persoanele ce stau acuma langă noi au conștiință? Noi știm ca avem, doar gândim, avem experiențe calitative. Dar cum de se face că suntem predispuși să credem mai degrabă că ele gândesc, iar roboții nu? Cum putem fi siguri că aceste persoane nu sunt defapt niște zombie care, precum mașinile inteligente, se comportă asemenea unor ființe umane?

Ștefan Sarkadi
Filosofie, Anul III

Bibliografie
Asimov, Isaac. Eu, Robotul. Teora, 1950.
Clarke, Arthur C. 2001: A space Odyssey. Hutchinson, 1968.
Cole, David. "The Chinese Room Argument." Stanford Encyclopedia of Philosophy. 2009. http://plato.stanford.edu/entries/chinese-room/#3 (accessed 2014).
Jackson, Frank. "Epiphenomenal Qualia." Philosophical Quarterly, 1982: 127-136.
Kurzweil, R. The Age of Spiritual Machines: When Computers Exceed Human Intelligence. New York: Penguin, 2000.
Nagel, Thomas. "What it is like to be a Bat?" Philosophical Review, 1974: 435–456.
Searle, John. "Minds, Brains and Programs." Behavioural and Brain Sciences, 1980: 417-457.
Turing, Alan. "Intelligent Machinery." Cybernetics: Key Papers 1968, 1948: 31.