Vaig escoltar, recentment, que a Silicon Valley el perfil professional més buscat era el de filòsof. La notícia em va deixar perplex. La zona del món mundialment coneguda per la seva concentració d’empreses d’enginyeria electrònica,  sempre l’havia associat, gairebé exclusivament, a perfils tècnics electrònics, informàtics i programadors però mai a perfils humanistes com un filòsof. Les explicacions em van arribar ràpidament en reflexionar una mica més sobre la notícia…

Estem entrant de cap a l’era de la robòtica i aquesta tendència ens està portant grans canvis de paradigmes i alguns mals de cap.

Canvis de paradigma com ara el centrat en la pròpia essència de robot. L’imaginari popular sempre havia visualitzat els robots com unes màquines amb més o menys aspecte hominoide i, encara que aquests tipus de robot també existeixen, la realitat és que la majoria són invisibles, immaterials, associats
a quantitats immenses d’informació processada pels seus xips en poques mil·lèsimes de segon: un robot que dona funcionalitat a un cercador d’internet, un electrodomèstic que aporta el seu comportament intel·ligent al seu propietari basat en l’aprenentatge i la programació, un enginy capaç de monitoritzar a temps real les constants vitals d’un pacient i prendre les mesures necessàries en tot moment, un altre que controla els estocs d’una empresa i gestiona automàticament les comandes per a reposar el gènere que surt…

Fins aquí tot és normal, però què passa quan els robots han de prendre decisions morals o ètiques? Per exemple, la tecnologia per a fer robots que condueixin de manera totalment satisfactòria els nostres vehicles ja és una realitat. Perquè, doncs, no es troba la oferta al mercat, oberta al gran públic? Molt fàcil: perquè, inevitablement, en molts moments aquests robots hauran de prendre decisions que solament es poden prendre des d’una ètica personal. La programació d’aquests robots els ha d’indicar que fer en una situació extrema, en un imprevist…

Fa ja força anys, Isaac Asimov va definir quines haurien de ser les tres lleis de la robòtica:

  1. Un robot no ha de danyar a un ésser humà o, per la seva inacció, deixar que un esser humà pateixi cap mal.
  2. Un robot ha d’obeir les ordres que li dóna un ésser humà, excepte quan aquestes ordres s’oposen a la primera llei.
  3. Un robot ha de protegir la seva pròpia existència, fins on aquesta protecció no entri en conflicte amb la primera o segona llei.

Són una bona base de treball, però… què han de fer els robots quan les decisions no estan sobre blanc i negre?, quan no hi ha una solució perfecte? No podem conduir al robot a un col·lapse on no sigui capaç de prendre cap decisió davant d’una situació extrema. Per exemple, en l’hipotètic cas en que les alternatives són atropellar a un nen que es troba en mig de la carretera o precipitar-se ell i el seu viatger pel precipici que es troba al costat, quina és la solució a seguir? Defensar sempre la vida del propietari enfront de qualsevol situació? I si enmig de la carretera hi ha tota una classe d’escolars que es troben d’excursió? I si sap que el seu propietari pateix una malaltia terminal i li queden poques setmanes de vida? O potser ha de valorar que si el nen està en mig del camí incomplint les normes de circulació mereix la mort? El teòleg jueu Maimonides va escriure en una ocasió que “el risc d’una decisió incorrecte és preferible al terror de la indecisió”. Nosaltres, en una situació extrema, prenem una decisió intuïtiva, per pur instint, però el robot ha de basar-se en uns criteris programats, perfectament detallats i jerarquitzats, on les prioritats sempre han d’estar mil·limètricament establertes. Si fossis tu la persona programadora, series capaç de resoldre satisfactòriament aquests dilemes? Tindries la seguretat de no deixar-te cap hipòtesi de molt important? El filòsof David Chalmers ha afirmat que els ordinadors són, d’alguna manera, extensions de la nostra ment. La ment humana no pot ser substituïda per un ordinador, però les funcions que faci per nosaltres, si estan ben programades, les farà més ràpidament i més eficientment que nosaltres. La base del problema està, segons Ramón López de Mantarás, director de l’Instituto de Investigación de Inteligencia Artificial del CSIC, en que “el món real és molt més complex que un tauler de joc: les regles no són clares, hi ha molta incertesa, molta imprevisió, moltes coses que no es veuen (…) La intel·ligència artificial no en sap res de sentit comú”.

Aquí és quan apareixen els filòsofs, per a resoldre totes aquestes qüestions, sota l’atenta mirada dels juristes i, naturalment, de les companyies asseguradores que hauran de donar cobertura legal a aquests cotxes!

Esperem que arribin aquestes màquines, sense pilot ni volant, que hem vist a pel·lícules com Demolition Man, Jo robot o Minority Report i preguem perquè enginyers, filòsofs i programadors hagin fet correctament la seva feina.

ENLLAÇ RELACIONAT
Els androides i les ginoides al cinema

Anuncis

Deixa un comentari

Fill in your details below or click an icon to log in:

WordPress.com Logo

Esteu comentant fent servir el compte WordPress.com. Log Out /  Canvia )

Google+ photo

Esteu comentant fent servir el compte Google+. Log Out /  Canvia )

Twitter picture

Esteu comentant fent servir el compte Twitter. Log Out /  Canvia )

Facebook photo

Esteu comentant fent servir el compte Facebook. Log Out /  Canvia )

S'està connectant a %s