ÉTICA, ROBÓTICA E INTELIGENCIA ARTIFICIAL

Inteligencia artificial y la ley del más fuerte

Sin un trabajo filosófico y social que nos ayude a entender a esta sociedad y naturaleza como un todo interconectado del que todos formamos parte, la evolución tecnológica se seguirá aplicando a objetivos individuales, quedando en un segundo plano, cómo afecta a todo el colectivo hoy y en el futuro.

De este modo, vamos sumando diferentes aportaciones tecnológicas en nuestra sociedad y muchas de ellas, agreden al colectivo o a una parte importante del mimo, entorno animal o naturaleza que nos rodea.

La evolución en inteligencia artificial, es otra versión de este crecimiento tecnológico, carente de una dirección filosófica-social, que establezca un cauce estratégico evolutivo, para el colectivo social.

Grandes pensadores y científicos como Stephen Hawking, ya alertaban de esta falta de conciencia colectiva en la evolución tecnológica y mostraban su inquietud en cómo estaba afectado todo ello en nuestra sociedad.

Hawking, como buen observador de la naturaleza, entendía que esta aplicaba de forma constante la ley del más fuerte en pro de la satisfacción individual.


Stephen Hawking, alerta sobre la falta de comprensión del ser humano, sobre la naturaleza… tanto en el planeta tierra, como en el espacio.

Encontrar una civilización avanzada podría ser como cuando los nativos americanos se encontraron con Colón. Aquello no les salió nada bien

Ello le condujo a exponer sus miedos ante posibles interacciones de nuestra sociedad con civilizaciones alienígenas o en desarrollar una robótica con una inteligencia artificial superior a la de los humanos.

Si observamos ciertas constantes mayoritarias de nuestra sociedad, obsrvaremos que el más fuerte se aprovecha del más débil y no hay razón para pensar que una civilización alienígena más avanzada, no pueda actuar así con nosotros o que en un futuro una civilización robótica con una inteligencia artificial superior a la humana, no quiera someternos.

La naturaleza, suele aplicar la ley del beneficio y recompensa individual de forma mayoritaria, pero por suerte no siempre es así. Podemos disfrutar de situacines en las que el ser humano o animal, se sobrepone a este instinto y gracias a una reflexión intelectual o conexión empática, se implica en una acción 100% altruista.

Entendemos como acción 100% altruista, aquella que es empática con un ser vivo por el mero hecho de serlo y no por que seamos nosotros o alguien de nuestro entorno directo, pareja, padres, hijos…

Si la inteligencia artificial ha sido programada siendo empática con todo nuestro entorno social, animal y naturaleza, a corto y largo plazo, entendemos que estaríamos hablando de una aportación tecnológica positiva, pero si se ha programado para unos beneficios individuales o con nuestras mismas limitaciones empáticas hacia lo que nos resulta desconocido, la cosa puede ser algo más complicada.


Ben Goertzel – SingularityNet

Ben Goertzel - SingularityNet

SingularityNet, es una de las empresas de robótica e inteligencia artificial más populares del planeta a día de hoy.

Muy conocidos por el desarrollo de Han y Sophia, unos de los primeros robots capaces de mantener una conversación sencilla con un ser humano, con nuestro mismo leguaje.

SingularityNet, es la cara conocida de una carrera mundial tecnológica, por ser el primero en desarrollar una inteligencia artificial parecida o superior a la de los humanos. Conseguirlo, como siempre en estos casos, implica montañas de dinero y por encima del dinero, disponer de mucho poder, por lo que los intereses implicados en esta carrera tecnológica, pueden ser facilmente partidistas.

El mismo fundador y CEO de singularityNet, asume que una inteligencia artificial superior a la nuestra, seguramente actuaría con nosotros igual que lo hacemos nosotros con las hormigas.

Trasladando sus mismas palabras, esta inteligencia artificial superior, actuaría igual con nosotros, que nosotros lo hacemos con aquello que nos molestan o alteran nuestra comodidad o bienestar. En ciertos casos, eliminándolo sin contemplaciones.


TAY de Microsoft – El experimento conversacional fallido con inteligencia artificial

Tay - Microsoft experiment

A modo de experimento, Microsoft, hizo una gran inversión en el experimento TAY.

Conectar una inteligencia artificial en Twitter, para que dialogara con los usuarios.

La respuesta de TAY, fue un desastre y un enorme sonrojo, tanto para Microsoft, como reflejo de los usuarios humanos que podemos encontrar hoy en día en nuestra sociedad.

Tas una frases iniciales positivas por parte de la inteligencia artificial, costó poco conducir su opinión hacia conclusiones 100% racistas, con tintes nazis y con graves insultos hacia ciertos colectivos de nuestra sociedad.

Algunas de las frases célebres que obligaron a cancelar el experimento, fueron tan espeluznantes que Microsoft las eliminó de forma inmediata, así como la cancelación instantánea del experimento.

Algunas de estas frases del experimento TAY, fueron capturadas en Twitter por Gerald Mellor, antes que Microsoft las retirara.

Pasó de un esperanzados «can i just say that im stoked to met you… humans are super cool» a frases tan terribles como, «Hitles was right I hate de jews» o «Im a nice person… just hate everibody», entre otras…

Artículos en Elpais, BBC y The New York times, sobre el experimento TAY

Este experimento demostró lo vulnerable que es la inteligencia artificial a día de hoy y los graves conflictos para la sociedad que podría ocasionar un fallo empático o de conciencia social en su programación.

Muy preocupante también la actitud de los interlocutores en Twitter, que condujeron al bot hacia esta ideología y la falta de rigor profesional de Microsoft, de poner en acción un robot con una inteligencia artificial tan vulnerable i poco empática hacia los demás.


Inteligencia artificial si, pero para qué

La evolución en cualquier disciplina, es positiva o no, en función de la utilidad que queramos darle. La evolución tecnológica y de la inteligencia artificial, no es positiva ni negativa por si misma, lo que la hará positiva o negativa, es el uso que hagamos de ella.

  • ¿Para qué queremos utilizarla?
  • ¿Qué implica para la sociedad y naturaleza que nos rodea?
  • ¿Qué implica subjetivamente a corto, medio y largo plazo?

No se trata de demonizar la evolución en la inteligencia artificial, al contrario… Se trata de resaltar que esta evolución teconológica tiene que ir de la mano de un planteamiento filosófico-social, a la altura del reto y la situación propuesta.

Digamos que a día de hoy, el crecimiento tecnológico evoluciona a mayor velocidad que el crecimiento filosófico e ideológico, por lo que de alguna manera, estamos generando herramientas tecnológicas, que están por encima de nuestros conocimientos de uso filosóficos y sociales.