Robocop vs. Terminator la ética y la inteligencia artificial.

La vida de los seres humanos de hoy a cambiado radicalmente. Con la creación de la inteligencia artificial, se ha hecho posible que las máquinas aprendan de la experiencia humana, que se ajusten a nueva información y que realicen tareas similares a las que podemos realizar día con día. Pensemos en Robocop como la inteligencia artificial que nos puede ayudar y de la cual tenemos control completo como seres pensantes y racionales, y en Terminator como el malo de la película, esa maquina/ser con potencial de destrucción masiva.

La mayoría de los ejemplos de inteligencia artificial que conocemos hoy como -Siri de Apple, Alexa de Amazon, Deeper Blue, de IBM computadora que derroto a un campeón del mundo en ajedrez (Garry Kasparov, 1997) o automóviles que se conducen sin ayuda humana (Tesla)- dependen en gran medida del aprendizaje profundo y del procesamiento del lenguaje natural. Usando estas tecnologías, las computadoras pueden ser entrenadas para realizar tareas específicas procesando grandes cantidades de datos y reconociendo patrones en los datos (1).

Todas estas herramientas tiene un potencial infinito en la vida diaria, pero ¿donde se trazan los limites de lo éticamente correcto?¿a donde vamos con este poder de procesamiento de información y toma de decisiones? Son las preguntas que podemos empezar a plantear para tener un panorama mas certero y conocimiento de los beneficios del AI en nuestras vidas.

Muchas personas ahora están hablando de los desafíos éticos planteados por la inteligencia artificial, ya que la tecnología se extiende a más rincones de la vida. El presidente francés Emmanuel Macron dijo recientemente que su plan nacional para impulsar el desarrollo de la inteligencia artificial consideraría establecer “límites éticos y filosóficos”. Siempre pensando en el beneficio real de los seres humano y facilitando la toma de decisiones que nos podrían proveer las maquinas (3).

Demis Hassabis, el CEO de DeepMind, piensa que el mundo debe tener control sobre las máquinas que pueden aprender por sí mismas, porque nadie desea producir un Terminator o construir un Frankenstein. De hecho, la condición para la venta de la compañía fundada por Demis a Google fue que se debía crear un Comité de Ética en IA, con la idea de que el mundo debe poder controlar estos desarrollos, algo no concretado aún (2).

A medida que los gobiernos de todo el mundo planean futuros impulsados ​​por la inteligencia artificial, el Reino Unido se prepara para asumir un rol un tanto mas intelectual y moral. En un informe publicado por la Cámara de los Lords, que se utilizará para orientar el futuro político del gobierno, recomendó que el Reino Unido: “forje un papel distintivo para sí mismo como pionero en la ética de la inteligencia artifical”. Los autores del informe también redactan lo que llaman un “Código AI”, que dicen que podría adoptarse a nivel nacional e incluso internacional.

Este código es uno de muchos creados por instituciones privadas y gobiernos, que incluye cinco principios básicos:

  1. La inteligencia artificial debe desarrollarse para el bien común y el beneficio de la humanidad.
  2. La inteligencia artificial debe operar según los principios de equidad y conciencia social.
  3. La inteligencia artificial no se debe utilizar para controlar el acceso a la información o la privacidad de individuos, familias o comunidades.
  4. Todos los ciudadanos deberían tener el derecho de ser educados para permitirles florecer mental, emocional y económicamente junto con la inteligencia artificial.
  5. El poder autónomia que tienen los seres humanos para herir, destruir o engañar a los seres nunca debe ser conferido a la inteligencia artificial (4).

Podemos ver y tener una perspectiva mucho mas concreta analizando problemas que ya se han presentado, Google ha tenido dificultades con algoritmos éticamente cuestionables, por ejemplo el servicio de organización fotos de la compañía está programado para no etiquetar fotos con palabras como “mono” o “chimpancé” después de un incidente en el 2015, en el que imágenes de personas negras fueron etiquetadas con la palabra “gorila” lo cual causo gran desconcierto en la comunidad afroamericana y en los grupos de defensa racial. Sundar Pichai (CEO Google) también está combatiendo a críticos internos y externos de un contrato de IA del Pentágono , en el que Google está ayudando a crear software de aprendizaje automático que puede dar sentido al video de vigilancia de drones. Miles de empleados han firmado cartas protestando por el proyecto (3).

Hasta ahora, los seres humanos no hemos tenido ningún rival que ponga en conflicto la vida, ningún Terminator que pueda destruir los mismos seres humanos que lo crearon o que enfrente posturas que estén de por medio la sociedad y sus individuos. Tenemos que seguir preguntándonos ¿se puede coexistir con seres cuya inteligencia eventualmente supere a la nuestra? Seguramente, la inteligencia artificial nos complementará y contribuirá sobre todo con nuestra calidad de vida, entonces será cuestión de estar alertas, seguir modelos de autocontrol y poder tener siempre el poder de lo que diseñemos y creemos pensando siempre en Robocops para poder manipular estas herramientas o nuevos sistemas a nuestro favor y en favor de la humanidad y del bien común.

CITAS:

  1. https://www.sas.com/en_us/insights/analytics/what-is-artificial-intelligence.html?utm_source=twitter&utm_medium=cpc&utm_campaign=analytics-global&utm_content=US_tap
  2. https://www.infobae.com/opinion/2016/09/13/los-supersonicos-y-la-inteligencia-artificial/
  3. https://www.wired.com/story/tech-firms-move-to-put-ethical-guard-rails-around-ai/
  4. https://www.theverge.com/2018/4/16/17241996/uk-ai-government-report-lords-ethical-leadership
Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

You May Also Like