Site hosted by Angelfire.com: Build your free website today!

 

*Ética aplicada a los robots*

El Gobierno de Corea del Sur prepara un Código de Ética para que las relaciones entre robots y humanos sean pacíficas, estables y eficaces. Esta Carta de Ética para Robots recoge una serie de principios que afectarán tanto a los fabricantes de los ingenios como a los mismos usuarios. Corea del Sur es una de las naciones más tecnificadas del planeta. En consecuencia, su Gobierno está muy comprometido con los avances en nuevas tecnologías. En este contexto, el ministro de Información y Comunicaciones ha predicho que todos los hogares coreanos tendrán un robot para que les facilite las tareas diarias antes de 2020. Por ello la necesidad de adoptar una especie de tratado o carta fundacional que establezca los pilares de la nueva, y duradera relación entre robots y humanos.

Las pautas que prepara Corea del Sur se inspiran en las tres leyes de la robótica formuladas por el célebre escritor Isaac Asimov en su relato Runaround, de 1942 (y que se pueden apreciar en la película Yo, Robot):

1) Primera Ley: Un robot no debe de agredir a un humano ni, con su inacción, permitir que un humano sufra algún daño.

2) Segunda Ley: Un robot debe obedecer las órdenes dadas por los seres humanos salvo si dicho mandato entra en conflicto con la Primera Ley.

3) Tercera Ley: Un robot debe proteger su propia existencia siempre y cuando no entre en conflicto con la Primera o la Segunda Ley.

Traducidos al mundo real dichos principios supondrán el establecimiento de una serie de garantías para que el uso que hacen los humanos de los robots no termine siendo abusivo, con especial énfasis en la protección de los datos adquiridos por un robot para prevenir su uso ilegal.

La importancia de los robots también ha sido tomada en consideración por otros países mucho menos tecnificados. Un estudio del Gobierno británico publicado en 2006 vaticinó que en los próximos 50 años los robots demandarían los mismos derechos que actualmente ostentan los humanos.

Uno de los principios de este código es rotundo en su formulación: "En el siglo XXI los humanos tendrán que convivir con la primera inteligencia artificial extraterrestre en la historia de la humanidad: los robots. Será un encuentro que provocará problemas de tipo ético, social y económico”. Existen varias disputas en cuanto a la ética robótica, pues se debate el hecho de aplicarles derechos humanos. Hay problemas que influyen en este campo, pues es una implementación nueva a la sociedad y su uso tendría que ser reglamentada al igual que cualquier otra acción humana.

Por ejemplo:
Si una máquina puede desarrollar tanto actividades cognitivas como afectivas (emociones), habría que empezar a pensar seriamente sobre qué posición ocupa la máquina. ¿Tendrá el propietario derecho a desenchufarla, o a destruir su programación inteligente? ¿Constituiría esto un asesinato? ¿Aunque, una vez “asesinada”, se pudiese reconstruir tan bien como si fuera nueva? ¿Sería este caso un “intento de asesinato”?

De acuerdo con las leyes vigentes, los robots son simplemente una propiedad inanimada sin derechos ni deberes. No son personas legales (al igual que las máquinas y las computadoras) y no los toma en cuenta el sistema judicial. Sin embargo, se debe recordar que, en algún momento de la historia del Hombre, tampoco fueron considerados como personas legales los negros, los niños, las mujeres, los extranjeros y las empresas.

Si la máquina fuese un robot antropomorfo, si fuese capaz de pensar, de sostener debates interesantes o de hacer nuevos descubrimientos científicos (en suma, si desarrollase habilidades cognitivas), tal vez no habría dudas de que “apagarlo permanentemente” constituiría una especie de asesinato.

Pero, si en vez de ser intelectualmente brillante, ¿qué sucedería si mostrase una gama de emociones equivalentes a las que componen al ser humano promedio? Incluso más, si tuviese la forma de un perro, con un nivel mental equivalente a ese animal y su limitada gama de emociones, ¿sería cruel pegarle, o sería nada más que golpear a piezas metálicas o de plástico?

Cambiar un robot –ya obsoleto y/o pasado de moda– por un modelo más nuevo y tirarlo como “chatarra”, como se hace con un automóvil o cualquier electrodoméstico, ¿no sería también una especie de asesinato?


Antes de construir humanoides inteligentes, se deberían resolver algunos problemas. De hecho, al momento de diseñarlos se debería tener definido si no es una crueldad producir en masa androides con sentimientos y luego eliminarlos en “campos de exterminio”.

Actualmente, cualquier robot se considera un bien instrumental; en consecuencia, su propietario puede hacer el uso que quiera… incluso hasta destruirlo. Es probable que, con el tiempo, surja un movimiento tendiente a atenuar los derechos derivados de la propiedad de los androides. Incluso puede ser que, algún día, éstos argumenten que son seres conscientes y demanden la igualdad de derechos. ¿Qué tipos de derechos se les debería otorgar y/o negar? ¿Se les pueden aplicar los “derechos humanos”? Si un robot emula perfectamente las características humanas, ¿podría reclamar ser miembro de la especie? No se podría exigirle que tenga un cuerpo físico como el humano, ya que –con ese criterio– se deberían rechazar también a las personas que cuentan con partes artificiales. ¿Cuál será el lugar que los robots ocupen dentro de la sociedad? ¿Formarán su propia sociedad?

La idea del Código de Ética es otorgarles un determinado conjunto de reglas o guías de comportamiento universal, a medida que se vayan haciendo cada vez más complejas, a fin de que sus acciones no se aparten mucho de las normas humanas (ya que se tornaría imposible controlarlos).

Recientemente un equipo internacional de científicos y académicos –pertenecientes a EURON (EUropean RObotics research Network)– elaboró un prototipo de “código de ética”. A grandes rasgos, sus recomendaciones son las siguientes:

Asegurarse el control de los humanos sobre los robots.
• Prevenir su utilización nociva o ilegal.
• Proteger los datos obtenidos por los robots.
• Rastrear y grabar la actividad de los robots.
• Brindar una identificación única a cada robot.

.3.

<-- Atrás