e-Renovarse o morir…

Silvia Leal

Blog de Silvia Leal, Doctora en Sociología, experta en innovación y nuevas tecnologías. Asesora de la Comisión Europea para la Agenda Digital (competencias, e-liderazgo y emprendimiento). Colabora con el IE Business School, el Human Age Institute y el Programa Emprende (Canal 24h y la 1). Autora de Ingenio y Pasión & e-Renovarse o morir (LID Editorial).

¿Han servido para algo las tres leyes de la robótica?

¿Has oído hablar alguna vez de las tres leyes de la robótica? Haz un poco de memoria. Pronto será su 75º aniversario…

Las leyes de la robótica son tres leyes de la ciencia ficción, fruto del ingenio de Isaac Asimov. Las definió como «formulaciones matemáticas impresas en los senderos positrónicos del cerebro» (de los robots), lo que podríamos traducir como las líneas de código que regulan su comportamiento. Si un robot las llegase a infringir, quedaría inmediatamente inutilizado.

Las tres leyes establecían lo siguiente:

1. Un robot no puede hacer daño a un ser humano, ni, por medio de la inacción, puede permitir que un ser humano sea lesionado.

2. Un robot debe obedecer las órdenes recibidas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.

3. Un robot debe proteger su propia existencia en la medida en que esta protección no sea incompatible con la Primera o la Segunda Ley.

Su función era proteger a los seres humanos y contrarrestar el «complejo de Frankenstein», expresión que recoge el miedo a que las máquinas lleguen algún día a rebelarse contra sus creadores, tal y como hizo el monstruo de la novela de Mary W. Shelley.

Las leyes de la robótica fueron mencionadas por primera vez en 1942, en el texto de un cuento titulado Círculo vicioso. Desde entonces, han formado parte esencial de muchos de los relatos de Isaac Asimov, condicionando tanto el comportamiento como el destino de los protagonistas de sus famosas colecciones Yo, robot (1950), El robot completo (1982) y Visiones de robot (1990).

Utilizarlas en la robótica actual sería muy complicado y, a la vez, insuficiente. Por esa razón, se están generando leyes alternativas de aplicación a la vida real. Son especialmente interesantes los cinco principios éticos y morales anunciados en 2010 para diseñadores, constructores y usuarios de robots. Elaborados por el Consejo de Investigación de Ingeniería y Ciencias Físicas y el Consejo de Investigación de Artes y Humanidades de Gran Bretaña, establecen que:

  1. Los robots no deben ser diseñados exclusivamente o principalmente para matar o dañar humanos.

  2. Los seres humanos son los responsables, no los robots. Ellos son herramientas diseñadas para cumplir con los objetivos de los humanos.

  3. Los robots deben ser diseñados de tal forma que aseguren su protección y seguridad.

  4. Los robots son objetos, no deben ser diseñados para evocar una respuesta emocional. Siempre debe ser posible diferenciar a un robot de un ser humano.

  5. Debe ser siempre posible averiguar quién es el responsable y dueño legal del robot.

Su propuesta era muy diferente a las ideas de Asimov, pero algo me dice que, de alguna forma, sirvieron de punto de partida…

banner-ayudas-y-otras-cosas

efeemprende.imagen.widget

efeemprende.imagen.widget
Portadas de los diarios economicosResumen de la prensa nacionalLa Bolsa en vivo en EFEempresasBANNER_I-a-la-carta_cibertienda_300X250