Iba saliendo de una junta en un café caminando por mi colonia y me dirigía a comer con unas amigas. Como ya es costumbre, abro WhatsApp para contestar las notificaciones que sentí en mi bolsillo durante la reunión - una de ellas es de Shari, mi asesora de LECO, quien siempre está pendiente de entregarme mis lentes de contacto cuando los necesito.

Y llego al restaurante a reunirme con mis amigas. Espera, pensé, ¿acabo de hacer una compra verdad? Wow, creo que ni me di cuenta.

La historia que acabo de narrar es real. Fue uno de los comentarios que recibí por parte de Eli, uno de nuestros primeros usuarios. Eli me contó que lo que más disfruta de LECO es que nosotros conocemos mejor sus hábitos de lentes que ella misma y que pedir nunca se siente como resolver un pendiente sino como una conversación real. Ese es el poder del Conversational Commerce, la nueva forma en que los negocios pueden interactuar con sus usuarios a través de las mismas plataformas donde ellos conversan con sus conocidos.

¿Por qué es tan relevante esta tendencia?

En primer lugar, Conversational Commerce te permite pasar de ser una empresa que transacciona con sus usuarios a una empresa que habla con sus usuarios. A través de conversaciones, puedes captar intenciones, insights y verbatims, lo cual te lleva a conocer verdaderamente a las personas. Si con ello logras generar un vínculo real, pasas de estar en su mesa de trabajo (PC) a estar en su bolsillo (Smartphone), de poderle enviar solamente emails, los cuales ignora fácilmente y es un canal de comunicación más lento, a enviarle mensajes de WhatsApp para saber en tiempo real, si estas siendo relevante o cómo mejorar tu propuesta de valor.

Con Conversational Commerce, la base de usuarios pasa de ser las personas que están en una computadora a todas las personas que tienen smartphones. De acuerdo a estadísticas de Anderseen Horowitz, para el 2020 habrán 5B de personas con un smartphone, lo cual es 1.7 más smartphones que computadoras al día de hoy. Conversational Commerce se vuelve una forma en que las marcas pueden de forma proactiva, comunicarse con sus consumidores y prospectar rápidamente a nuevos usuarios. Así como las apps tienen el poder de comunicarse directo con sus consumidores sin necesidad de una acción previa a través del envío de "Push Notifications", el conversational commerce tiene el poder de colocar a tu empresa directamente en el canal de comunicación más usado, sin que el usuario tenga que tomar una acción.

Pero más allá de tener más cercanía con los usuarios y estar presente en manos de más personas, lo más increíble es que la tendencia es escalable mediante tecnología, chatbots y AI.  De acuerdo a Gartner, para el 2020 el 85% de las relaciones entre consumidores y empresas sucederán sin interacción humana. Y es absolutamente necesario. La gran mayoría de las interacciones que tenemos con empresas se podrían responder mediante respuestas y flujos previamente automatizadas y dejar solamente aquellas problemáticas difíciles de resolver a personas reales, las cuales probablemente tendrán un trabajo aún más importante que el que hoy tienen, donde repiten día con día millones de instrucciones de la misma forma. Gracias a Conversational Commerce, LECO alcanza tazas de conversión hasta del 14% cuando en promedio un e-commerce set tienen tazas de conversión del 2.35% de acuerdo a Google.

Para LECO, los smartphones son el habilitador más importante del customer journey y nos entusiasma mucho saber que mediante este dispositivo, estamos ayudando a cientos de miles de personas en sentirse respaldados en su camino a ver mejor.

Skynet es el nombre que recibe la inteligencia artificial que lidera al ejército de las máquinas en la saga de películas Terminator y el principal antagonista de esta. En la saga, Skynet es una Inteligencia artificial capaz de controlar el arsenal militar de los Estados Unidos con independencia de los humanos. [Referencia]

Normalmente no me pongo tan apocalíptico pero luego de ver el poder actual de procesamiento al que tenemos acceso y la evolución que ha tenido en los últimos años si da un poquito de emoción y miedo el no saber frente a que nos encontramos.

[Referencia]

Hemos visto en los últimos 30 años mucho más avances tecnológicos que en los 30 años anteriores. Si nos ponemos a pensar que las computadoras personales y el internet apenas aparecieron en los hogares entre 1980 y 1990, vivimos una ola de desarrollos tecnológicos que no tiene precedentes. Y menciono a computadoras e internet porque es a lo que tengo acceso pero en el sector de la investigación:

«El Sunway TaihuLight encabeza el ranking de supercomputadoras con una potencia brutal que supera los 93 petaFLOPS y ha supuesto una revolución en China porque ha sido diseñado y fabricado con procesadores de cosecha propia en el centro de supercomputación nacional». [Referencia]

Hubo ya, una predicción que se cumple aún en estos días, en 1964 Arthur L. Samuel, del Centro de Investigación Watson de IBM escribió en una serie de artículos llamados «El mundo en 1984», un artículo titulado «The Banishment of Paper Work»:

«Aunque será completamente posible obtener una educación en casa, a través del propio computador personal, la naturaleza humana no habrá cambiado, y todavía habrá necesidad de escuelas con laboratorios, aulas y profesores que motiven a los alumnos». [Referencia]

La idea de un Skynet, fuera de que sea ciencia ficción es realmente alcanzable. Los equipos de computo y su poder de procesamiento están a unos cuantos años de lograr niveles jamás antes vistos de Inteligencia Artificial (IA).

Ya vemos como normal que la IA más básica nos puede llevar por la mejor ruta, nos puede recomendar películas y series, nos hace listas de reproducción o nos pone anuncios de cosas que no sabíamos que necesitamos.

Estamos en una transición de esos usos domesticos de IA a algo que en las manos equivocadas podrían llevarnos a ese futuro apocalíptico que vimos en las películas.

Cuando veo que hay quien está usando la IA para predecir quien ganará la Copa del Mundo en lugar de aprovechar ese procesamiento en algo realmente útil, me da miedo, mucho miedo. Mucho más cuando las predicciones son erróneas.

One of the first things I have come to realize while researching Artificial Intelligence (AI) is the difficulty to define it. That is why I would like to delve a bit deeper into the basics so both the reader and I can be on the same page.

According to the Wikipedia, AI is intelligence demonstrated by the machines, in contrast to the natural intelligence displayed by humans and many animals. A typical AI perceives its environment and takes actions that maximize its chance of successfully achieving its goals. These goals can be simple, or complex, can be explicitly stated or remain implicit in the problem, and they will usually depend on the task the AI is trying to solve.

At this point we need to make a distinction between AI and algorithms, and it may get a bit messy due to what is known as the “AI effect” which can be represented as follows: As soon as AI successfully solves a problem, the problem seems to no longer be a part of AI.

For example, when IBM’s chess playing computer Deep Blue succeeded in defeating Garry Kasparov in 1997, people complained that it had only used “brute force methods” and it wasn’t real intelligence. Fred Reed writes:

“A problem that proponents of AI regularly face is this: When we know how a machine does something ‘intelligent,’ it ceases to be regarded as intelligent. If I beat the world’s chess champion, I’d be regarded as highly bright.”
Fred Reed (2006–04–14) “Promise of AI not so bright”.

So let us back up; we have algorithms, which are a set of unambiguous instructions that a mechanical computer can execute, and that do not imply any use of “intelligence” because every set of possibilities have been considered, and every response to them has been hardcoded. This is how Deep Blue beat Garry Kasparov; every time the human player made a move the computer considered every possible move up until a certain depth, ranked them according to how likely they were to succeed and executed the move with the highest likelihood of giving the computer an advantage towards winning the game.

This is where a very interesting new concept comes in; “Machine learning”, which refers to the ability that AI has to “learn” new things. In the case of Deep Blue, unless changes were made to its code, the a priori chances of beating Kasparov the first time were the same as beating Kasparov after a thousand games, assuming that Kasparov’s level remained the same.

That is not the case anymore, the best chess AIs nowadays have the ability to learn every time they play, therefore, the initial algorithm tends to evolve to the point where the AI becomes a black box and its moves are unpredictable even for the people that have programmed it. With learning we refer to gaining the abilities to execute certain strategies that were not hardcoded when the AI was first released.

And here another closely related concept enters the picture, Big Data: data sets so big and complex that traditional data-processing application software are inadequate to deal with them. These data sets allow, for example, for an AI to examine and learn from every chess game ever recorded in a matter of hours.

So suddenly, if we mix AI with machine learning and big data, we end up with a domain specific intelligence that is many times more advanced than human intelligence. This combination has led to AIs performing many tasks, not just chess, much better than its human counterparts such as driving, face recognition, pattern recognition…

Everything seems to point towards a future where AI outperforms humans in every task, which starts to take us closer to the subject of this article; the implications that ethics will have for AI. Because even if machine learning allows machines to develop their own way of thinking, we can still hardcode a set of rules, or boundaries that the AI will never be able to break. The same way we can let a kid do anything he wants inside a sandbox except: 1) Exit the sandbox, 2) fight other kids, and 3) eat the sand; we can let AI do anything it wants, except for a set of rules that it is always obliged to abide.

In that respect, one of the most famous formulation was made by Isaac Asimov with the three laws of robotics, which we can easily make extensible to all AI:

  1. An AI may not injure a human being or, through inaction, allow a human being to come to harm.
  2. An AI must obey orders given it by human beings except where such orders would conflict with the First Law.
  3. An AI must protect its own existence as long as such protection does not conflict with the First or Second Law.

The original laws apply to just robots, but we are not sure what kind of container will AI have in the future. For example, movies such as 2001: A Space Odyssey or Her have showed more ethereal forms for sentient AIs.

The problem with this laws is that there are some ethical problems were the AI in question has no choice but to break one of the laws, because it is forced to choose the least bad of two bad options. Probably the most illustrative of these problems is the Trolley Problem. The traditional thought experiment is presented as follows:

You see a runaway trolley moving toward five tied-up (or otherwise incapacitated) people lying on the tracks. You are standing next to a lever that controls a switch. If you pull the lever, the trolley will be redirected onto a side track and the five people on the main track will be saved. However, there is a single person lying on the side track. You have two choices:

1. Do nothing and allow the trolley to kill the five people on the main track.
2. Pull the lever, diverting the trolley onto the side track where it will kill one person.

Which is the most ethical choice?

As you can see, this is a challenging situation which can be easily extensible to a self-driving car controlled by an AI. If the car is about to drive into a group of 5 and killed them all, should the AI steer the car and kill its passenger instead?

Source: http://moralmachine.mit.edu/

In this situation the computer must break Rule #1: An AI may not injure a human being or, through inaction, allow a human being to come to harm. His only options are either to injure the driver, or allow 5 people to come to harm through inaction.

Many possible solutions have been formulated for the Trolley Problem and its countless iterations, but, obviously, there is no definitive answer and I will leave it up to the reader to decide how she believes that the AI should be programmed. If you want to take the experiment a bit further, visit MIT’s great web page linked below the above image.

Another interesting angle is how AI seems to be more racist and sexist than human intelligence. When humans make decisions about hiring, or granting a bank loan, they’re more likely to be questioned about their judgement. But when it comes to AI, even if we were to try to guess what it based its decision on, we would be facing a black box; artificial neural networks just cannot explain their decisions.

We could try to mitigate this problem by telling the AI not to use racial data when granting loans, but there are many other correlated variables such as names (for example, in the United States, the last names Wei or DeShawn are highly correlated to Asian American and African American people respectively). Therefore, the AI could conclude the race and sex of the person using many proxy variables without ever taking into account those variables explicitly. And assuming that either race or sex are variables that determine the likelihood of, as an example, repayment of a loan, AIs would be more likely to deny loans or grant them in worse conditions based on racist or sexist biases.

A great article published on the award winning Canadian magazine, The Walrus, delves deeper into this problem:

“Let’s say we’re concerned about race as the factor of discrimination,” deep-learning pioneer Yoshua Bengio says. “Let’s say we see that, in our data, we can measure race.” Another constraint can be added to the neural network that compels it to ignore information about race, whether that information is implicit, like postal codes, or explicit. That approach can’t create total insensitivity to those protected features, Bengio adds, but it does a pretty good job.

The article adds:

A growing field of research, in fact, now looks to apply algorithmic solutions to the problems of algorithmic bias. This can involve running counterfactuals — having an algorithm analyze what might happen if a woman were approved for a loan, rather than simply combing through what’s happened in the past. It can mean adding constraints to an algorithm, ensuring that when it does make errors those errors are spread equally over every represented group. It’s possible to add a different constraint to the algorithm that lowers the threshold of, say, university acceptance for a particular group, guaranteeing that a representative percentage gets in — call it algorithmic affirmative action.

The problems mentioned above are just the tip of the iceberg, a small subset of issues we are currently facing. If we decide to think about the year 2100, after singularity and with sentient robots everywhere , the ethical problems become almost intractable from our current perspective:

All these questions make it obvious that philosophers, judges and ethics professors, among other experts, will become more relevant in the AI field. In the meantime, it is up to us to keep learning about AI to try to transition smoothly to the new world where AIs will be making most decision, and hope that we do not end up in a distopyan future such as the one in Alphaville, one of my favorite sci-fi movies.

La tecnología que hay, y la que viene.

Cuando pensamos en la inteligencia artificial, normalmente se nos viene a la mente un mundo lleno de robots y un escenario en el que nos hacemos dependientes del uso de esta tecnología, pero la realidad es que en el mundo moderno interactuamos con la inteligencia artificial todos los días.

La comunicación con Siri/Alexa y el optimizador de rutas de Google Maps son ejemplos de tecnologías que usamos sin darnos cuenta de que están recopilando información de nuestro comportamiento para poder adaptarse mejor a nuestros hábitos. A veces es difícil de conceptualizar las variedades de AI, pero hay muchos expertos dedicando su máximo esfuerzo para poder aplicar esta tecnología en la vida cotidiana.

Para poder diferenciar los diferentes tipos de inteligencia artificial, Stuart Russell y Peter Norvig (Director de Investigación en Google) los separan en estas cuatro categorías:

1. Sistemas que piensan como humanos.-

Sistemas computacionales que tratan de emular el pensamiento humano, inteligencia para la toma de decisiones y la resolución de problemas. Sistemas que reaccionan a un conjunto de instrucciones.

2. Sistemas que actúan como humanos.-

Sistemas computacionales que tratan de simular el comportamiento humano, como por ejemplo la robótica. Esta inteligencia artificial se usa para realizar tareas que las computadoras pueden hacer en vez de los humanos y con menos; como el riesgo con el manejo de químicos o el desgaste con el manejo de materiales muy pesados.

3. Sistemas que piensan racionalmente.-

Sistemas computacionales que simulan el pensamiento lógico racional del ser humano. Sistemas pensantes que son capaces de analizar la situación para poder razonar, tomar decisiones y actuar.

4. Sistemas que actúan racionalmente (idealmente).-

Sistemas computacionales que pueden pensar lógicamente como el ser humano, pero también tienen la capacidad de actuar y simular el comportamiento humano, para después aprender de su experiencia. Sistemas capaces de analizar una gran cantidad de información. La versión ideal de la inteligencia artificial.

El gran diferenciador entre el primer tipo de inteligencia y el segundo, es que un sistema piensa, y el otro sistema toma acción.

El gran diferenciador entre los primeros y los últimos es que los primeros están limitados al pensamiento y acciones de los humanos, y los segundos nos sobre pasan.

Las primeras dos categorías = Tecnología que tenemos actualmente

Las ultimas dos categorías = Tecnología que tendrémos en el futuro

Para darle más contexto a los diferentes tipos de inteligencia artificial les daré mi definición para cada una de ellas:

1. Maquinas reactivas

La forma más básica de la inteligencia artificial, como ejemplo en un juego de ajedrez digital puedes escoger jugar contra una computadora. Al momento de programar el juego se anotaron todos los posibles escenarios y dependiendo de la dificultad seleccionada la computadora se puede ajustar al juego. Esta inteligencia artificial lo que hace es observar y reaccionar ante el movimiento del contrincante. Estas maquinas solo tienen la lista de instrucciones que se les fue dado, y no tienen la capacidad de pensar por si solas.

 

2. Maquinas con memoria limitada

El segundo nivel de inteligencia artificial; estas son máquinas a las que se le dio una lista de instrucciones, pero adicionalmente se le dio la capacidad de observar e interpretar información, dándole cierto nivel de inteligencia al robot. Esta capacidad de observar e interpretar es similar a la de un humano usuario del sistema. En el caso de los carros autónomos, la maquina puede observar cómo se están moviendo otros carros e interpreta esa información para poder tomar mejores decisiones. También puede identificar las líneas que separan los carriles y los semáforos para poder adaptarse a las necesidades de cada situación.

3. Teoría de la mente

Tecnología muy avanzada en la que la inteligencia artificial será capaz de ver e interpretar las cosas y personas a sus alrededores. Un robot capaz de reconocer caras, identificar emociones y aprender de su experiencia para poder predecir cómo va a actuar la persona o el ecosistema basado en la información que ha recopilado.

4. Inteligencia auto-consciente 

El máximo nivel de inteligencia artificial, maquinas conscientes que pueden interpretar información, tomar decisiones y aprender de ellas. Aun no se ha desarrollado una inteligencia artificial auto-consciente, pero podría transformar como usamos la tecnología.

Por ejemplo, en la industria manufacturera tenemos sistemas para identificar cuando hay una irregularidad o un defecto, pero seguimos dependiendo del humano para diagnosticar el porqué del error y entrar a reparar la maquinaria. Un robot auto-consciente podría identificar el error, tomar la decisión y encontrar la manera de que ese error no vuelva a suceder. La versión ideal de mejora continua.

El concepto de la inteligencia artificial es una caverna que muy pocos han explorado, pero hay muchos otros ejemplos en los que interactuamos con la inteligencia artificial. En el 2015 la aplicación más popular para escuchar música Spotify implemento el uso de inteligencia artificial para tomar en cuenta la música que has escuchado recientemente para poder personalizar una lista de música relacionando canciones que han escuchado recientemente otros usuarios de la misma aplicación.

La inteligencia artificial tiene y tendrá un enorme impacto en nuestras vidas, ya sea en nuestros celulares, la televisión, la computadora o en nuestros trabajos. Tenemos que enfocar el desarrollo tecnológico a las necesidades de las sociedades. Lo que necesitamos es Inteligencia Humana Artificial (IAH); tecnología para mejorar las condiciones de vida al rededor del mundo. Las Naciones Unidas tienen mucha esperanza para la aplicación de esta tecnología en el area de medicina, agricultura y comunicación. Si quieres conocer más de su análisis dejo una liga en las referencias.

Referencias:

Arend Hintze. (2016). Understanding the four types of AI, from reactive robots to self-aware beings. Junio 22, 2018, de Michigan State University

Milica Begovic. (2018). Hablemos de Inteligencia Artificial. Junio 22, 2018, de Programa de las Naciones Unidas para el Desarrollo Sitio web: http://www.undp.org/content/undp/es/home/blog/2018/let_s-talk-about-artificial-intelligence.html

https://infogram.com/ai-timeline-1ho16v1wjzn76nq?live