¿Debemos enseñar moral a los robots?

¿Debemos enseñar moral a los robots?

¿Debemos enseñar moral a los robots?

Emanuele Luzzati

Un alto porcentaje de los humanos vivos hoy tienen a diario contacto directo con robots. Y los que no, tienen contacto con personas e instituciones que usan robots. Son, por lo tanto, muy pocas las personas vivas hoy cuyas vidas no hayan sido influidas, afectadas o tocadas por la robótica.

 

"¡Espera! –puede que estés diciendo en este momento– ¡Yo nunca trato con robots!" ¿De verdad? Piénsalo.

 

Se ha definido robot como una máquina capaz de efectuar varias operaciones complejas automáticamente, controlada por un computador o por un humano por medio de un control remoto. Es un agente, es decir, actúa en lugar de, o con las funciones de, o en reemplazo de un ser humano.

 

Si partimos de esa definición, los buscadores en Internet, como Google, operan con robots. En la producción de automóviles, gran parte del trabajo es realizado por robots. Se utilizan robots en algunas cirugías que exigen un alto nivel de precisión. Hay robots que desarman bombas.

 

Pero no es necesario que tú veas el robot para ser atendido o afectado por él: Cuando emites una boleta o factura por Internet no sólo usas varios robots que hacen posible la existencia y el funcionamiento de Internet, sino también las máquinas que la institución encargada de los impuestos utiliza para mantener la información de los contribuyentes y ejecutar sus movimientos (emisión de documentos, apertura de cuentas, inicio y fin de actividades, etc.). Todo eso son robots. Muy probablemente ningún humano vea lo que estás haciendo, y sin embargo la acción se ejecuta. En Chile, por ejemplo, el SII (Servicio de Impuestos Internos) tiene un sitio web en el que puedes realizar casi cualquier trámite sin necesidad de que vayas a una de sus oficinas, y sin que ninguno de sus funcionarios deba revisar tu solicitud... Es decir, sin interactuar con otro ser humano.

 

Cada vez que pagas con tarjeta (crédito, débito, prepago), estás siendo atendido remotamente por un robot. O cuando usas un cajero automático. Y no es el cajero automático, la máquina que ves, el único robot en esa operación. También lo es aquel que está lejos, en una central, y que autoriza al cajero automático a entregarte dinero. Tu dinero está en "manos" de robots, y en ellos confiamos ciegamente.

 

Ya que interactuamos con robots a diario, y les hemos confiado acciones y objetos valiosos, quizás imprescindibles para el funcionamiento de todo nuestro sistema, es altamente relevante la pregunta ¿Debemos poner límites morales a los robots? ¿Debemos enseñarles a distinguir el bien del mal?

© Linda Bucklin
© Linda Bucklin
Emanuele Luzzati
Emanuele Luzzati

Que la distinción es posible incluso para ellos queda claro con el cajero automático. Un robot es el que decide si está bien o mal entregarte dinero, y actúa en consecuencia. Esa decisión es relativamente fácil, pues sólo debe responder a si hay o no registro de saldo a favor en tu cuenta, y a otras consideraciones similares relacionadas. Hay, sin embargo, casos más complejos.

 

Hace poco se hizo mundialmente conocida la situación de Mario Costeja, quien dio una batalla judicial contra Google debido a que al ingresar su nombre en su buscador, éste arrojaba información sobre deudas, y subastas y embargos derivados de ellas. Tales deudas ya estaban saldadas, pero Google seguía arrojándolas a la pantalla como relevantes. ¿Es justo que un privado sea condenado a tener su nombre eternamente relacionado con deudas de su pasado que ya ha saldado? Dado que Google es una fuente de información primaria para gran número de individuos hoy en el mundo entero, y en especial para el habitado por Costeja, el que su nombre fuera inmediatamente ligado a deudas por Google le causaba grandes problemas y daños ¿Harías tú negocios con alguien que acabas de conocer si al buscar su nombre en Google aparecen deudas, remates y embargos? ¿Le arrendarías tu casa? ¿Le venderías a crédito? ¿Le comprarías por Internet? ¿Confiarías?

 

Un fallo del Tribunal de Justicia de la Unión Europea obligó a Google y a cualquier otro buscador a dar a las personas la oportunidad de borrar de los resultados de búsqueda aquella información que ya no sea relevante y se considere lesiva para ellas. Como resultado, Google, Bing, Yahoo, y cualquier otro servicio de búsqueda en Internet ha tenido que enseñar a sus robots a olvidar. A respetar el llamado derecho al olvido. (Artículo de El País al respecto aquí)

 

En este caso podemos hablar, por lo tanto, de roboética. La ética de la robótica.

 

Según Rafael de Asís, "la roboética puede ser entendida como el conjunto de criterios o teorías con los que se pretende dar respuesta a los problemas éticos que plantea la creación y el uso de robots, y que se proyectan en sus fabricantes y usuarios e, incluso, en los propios robots."

 

En esto no sólo está involucrado el sentido común o el criterio de un fabricante o un operador.

 

"Los problemas que plantea la robótica no solo poseen una proyección ética, sino también jurídica y política. […] La reflexión ética necesita del Derecho para hacer más fuertes sus conclusiones, y el Derecho necesita de la ética para fundamentar sus normas. […] Y esto se hace más evidente si esta reflexión toma como referencia a los derechos humanos.

(Una mirada a la robótica desde los derechos humanos, por Rafael de Asís; editorial Dykinson, 2015)

¿Es el derecho al olvido un nuevo derecho humano? ¿Son los avances que los robots hacen posibles ventajas exclusivas para sus creadores y usuarios/compradores, o deben hacerse llegar a todos, incluyendo a quienes no puedan pagar el precio impuesto por los fabricantes y distribuidores? ¿Son, por tanto, sus avances un derecho humano?

"La esperanza es que se pueda llegar a una ética compartida por todas las culturas, todas las naciones y las religiones, según la cual la construcción y empleo de las máquinas inteligentes contra los seres humanos sea considerado un crimen de lesa humanidad"

La speranza è che si possa giungere a un’etica condivisa da tutte le culture, tutte le nazioni e le religioni, secondo cui la costruzione e l’impiego di macchine intelligenti contro gli esseri umani sia considerato un crimine contro l’umanità

(Gianmarco Veruggio, exposición en la conferencia de San Remo, 2004).

Prima del gennaio del 2004 (Primo Simposio Internazionale sulla Roboetica) chi avesse digitato su un motore di ricerca la parola “roboetica” non avrebbe trovato alcun risultato; oggi, sono parecchie migliaia le voci su Google, in italiano, e per la voce “roboethics” molte di più.

En el año 2004, en San Remo, Italia, se realizó la primera conferencia en el mundo sobre roboética. Como dijo Fiorella Operto:

 

"Antes de enero de 2004 (Primer Simposio Internacional sobre Roboética), quien hubiera digitado en un motor de búsqueda la palabra “roboética” no habría encontrado resultado alguno; hoy, aparecen miles de entradas en Google en italiano, y para la entrada “roboethics” muchas más."

El tema se ha transformado en una preocupación para un número cada vez más grande de personas, y cada vez más diverso. No sólo los expertos están planteándose estas cuestiones. Ya respecto del 2004 Fiorella Operto afirmó:

 

"En robótica no habían ocurrido los incidentes bioéticos de la oveja Dolly y otros. Aun así, se habían dado algunos eventos que ponían a la robótica bajo la atención del público general: la robótica y los robots estaban entrando a formar parte de la cultura general y de aquello que se llama “Public Concern”, el sentimiento de la población en general respecto del producto de la ciencia."

 

Hoy, acercándonos a la mitad del año 2016, estos temas merecen tanta o más reflexión, dado el avance de los niveles de autonomía que la tecnología ha logrado dar a máquinas que antes sólo podían ser operadas por un humano y que usamos a diario. Por ejemplo, los automóviles. La tecnología que les permite "conducirse solos" ya existe. Un vehículo de esas características deja de ser una máquina operada por un humano y se transforma en un robot altamente autónomo ¿Cómo evitaremos los accidentes? ¿Se les ha programado para distinguir a un humano de un animal o de otro obstáculo? ¿Serán capaces de elegir el mal menor si se diera la necesidad? ¿Será correcto que elijan arrollar a un perro para no arrollar a un humano? ¿Quién decide eso? ¿Quién decide qué enseñarles? ¿Quién será responsable si suceden accidentes? ¿Qué cambios habrá que introducir a la legislación para que cubra las eventualidades que estos nuevos robots de transporte de humanos nos presentan?

 

El tema está lejos de agotado, y –como en la bioética– no se trata de reflexión puramente teórica ni solo para el regocijo intelectual. Es una que tiene implicaciones de muy largo alcance que afectan la vida de todos.

In robotica, non erano avvenuti gli incidenti bioetici della pecora Dolly e altri. Nondimeno, erano accaduti alcuni eventi che ponevano la robotica all’attenzione del grande pubblico: la robotica e i robot stavano entrando a far parte della cultura generale e di quello che si chiama “Public Concern”, il sentimento della popolazione in genere verso i prodotti della scienza.

(Il decenalle della Roboetica, publicado en la revista Brick, el 14 junio de 2014)