Uno de los principales avances en la industria automotriz se trata de la automatización de manejo. Ya no sólo empresas pioneras como Google están desarrollando esta tecnología, sino que las mismas armadoras están buscando remediarse de esta forma. Es una evolución tecnológica que sin duda impactará y modificará mucho el estilo de vida que llevamos hoy en día. Al momento de “delegar” el manejo y control, tendremos más tiempo disponible para trabajar, comer, dormir,… o, ¡estar más tiempo en redes sociales! (Yeii..)
Cortesía de The Telegraph News, fuente: https://www.telegraph.co.uk/news/2017/01/06/driverless-cars-will-cause-congestion-britains-roads-worsen/
Tropicalizando un poco todo este asunto; a raíz de la gran problemática que tenemos en el país, en calles y a los volantes, veo en lo personal mucho más compleja la implementación de la tecnología de coches autónomos* a México. Faltan kilómetros de ayuda por parte del gobierno para hacer posible un avance de este tamaño; implicaría, lamentablemente, grandes barreras para las armadoras o empresas que quieran aplicar esta tecnología. Desde mi punto de vista, se prestaría mucho a sobornos y permisos comprados.
Por otro lado, la mala o poca infraestructura que tenemos en México y la calidad en las que se encuentran nuestras pobres calles, principalmente en la CDMX, sería otra limitante, desde mi punto de vista, para los coches autónomos tal como lo señala Expansión en su nota. En muchos casos las señalizaciones, banquetas, carriles para bicicletas, reparaciones de baches, túneles, puentes; no están bien comunicadas o no tienen sentido. Yo no soy la indicada para decir que estos coches con grandes avances no podrán reaccionar o responder ante irregularidades, pues se trata al final de inteligencia artificial súper avanzada; pero estoy segura que será un mayor reto en nuestro país en comparación a otros con mucha mejor infraestructura.
Adicional, el
estilo de manejo y la poca cultura y educación que tenemos los mexicanos en
estos temas sería una limitante más, y ¡vaya de qué tamaño!
“Si, Sabine, en México NO existe un
examen de manejo, es correcto.”
“Si, James, en México NO es necesario contestar 100% bien en un examen de teoría
sobre el manejo y aún así obtienes tu licencia.”
Corríjanme si son frases que jamás han escuchado o han tenido que decir o explicar a conocidos o amigos extranjeros. Es algo que los sorprende, sin embargo, en México, es algo ya que pasó a quinto plano y que lo aceptamos como es.
La gravedad que ocasiona esta falta de cultura y educación al volante no permitiría que estos dos personajes: el robot, y el humano; convivan de manera eficaz. “El robot”, “el conductor fantasma”, “el mismo coche” o como le quieran llamar al “sujeto” detrás del coche autónomo estará actuando y reaccionando de manera sistemática, funcional, lógica y ética; estarán respondiendo y respetando a las señales de tránsito como debe de ser:
Robot 1 – Humano 0
Muchos coches autónomos se verían afectados, incluso chocados, con los increíbles choferes que tenemos en nuestro país, y ahí entra otra cuestión, ¿quién responde del otro lado? ¿Bajo qué términos se arreglaría un choque con esta nueva metodología de manejo?
No obstante, todo esto representa un paso enorme que me encantaría ver en nuestro país más temprano que tarde; ya que quizás sería algo que corregiría todo lo previamente mencionado, who knows.
Sería además, como lo menciona Alex Rubalcava en su nota para Medium, una gran herramienta para empresas como Lyft, Uber, Cabify o similares donde puedan generar automóviles de mucho mayor espacio para compartir rides y que ellos puedan disminuir sus costos operativos.
Es un tema interesantísimo que puede ser una gran amenaza o una gran salvación en nuestro país dentro de unos años. Va a estar muy bueno ver todos los debates y regulaciones al respecto.
Gracias por leer,
Paola (Epsilon).
*Un vehículo capaz de imitar las capacidades humanas de manejo y control.
Never would I have imagined that in a near future, cars would be such a common thing. When I was in college one of the major projects was with Ford Motor Company, each team was assigned to create a concept for the 2020 Ford Focus, back then in 2013 out team presented a driverless car concept where the car turned into a workspace and time spent in traffic was well spent. The comments we received were “Your project has to be realistic” which looking back makes me think that most of us didn't think would be possible.
Technology has so rapidly grown throughout the years that probably most of our children will never have to drive a car. This opens up a can of worms to all the possibilities driverless cars will open for future behavior.
Vehicle designs will change radically, as they won´t need to withstand crashes in the same way and all of them will be electric (self-driving + software + service providers). Cars will not only look very different to what we know today but there will be huge innovations in the materials used to create them that will facilitate production with less human labor.
I like to imagine that technology will also help create a stronger bond between the car and the passenger by forming a system that learns from their users (mistakes, places, preferences, emotions and so on) I don´t really know if this is possible just yet but back in 2013 this is what got me the most excited about my project. Just thinking of all the possibilities available for human-car interaction.
Traffic policing will become very different to what we know today and self driving police cars may become more common around the city.
Cities will become much more dense as fewer roads and vehicles will be needed and transport will be cheaper and more available. The “walkable city” will continue to be more desirable as walking and biking become easier and more commonplace. When costs and timeframes of transit change, so will the dynamics of who lives and works where.
Artificial Intelligence is a difficult concept for anyone to grasp because of all the speculation behind it. We cannot fully predict where AI will take us, since part of the theory establishes that once computers gain artificial super-intelligence, their understanding of all concepts through their ability of self-learning and self-improvement will take them further than any human brain will ever be able to comprehend.
AI responds to the development of computer systems that can execute different tasks that normally would require intelligence only human brains can process. AI is divided into three steps: Artificial Narrow Intelligence (ANI) where computers focus on one task or field of specialization such as: chess playing (here is where we stand at the moment); Artificial General Intelligence (AGI) where a computer reaches human-brain broadness of intelligence and has the ability and general capacity to work in different fields and more importantly, self-improve from its experience; and Artificial Superintelligence (ASI), the point where computers surpass human intellect. This last step is where Singularity happens, and according to scientists and people in the AI field, as soon as we hit the AGI step, ASI could be a matter of a few years straight after (or less).
We have reached ANI and we see it every day through machine learning in ads on Facebook and Instagram, financial tools predicting how markets are reacting around the globe, or on our phones with the name of Siri. This first step seems harmless and under control. But what about the next two steps? Where teams of AI experts are putting all their efforts to arrive.
On the one side, we are trying to create super-intelligent computers, but on the other side we haven’t yet fully understood the depths of the human brain, we haven’t discovered most of what lies in the depths of the ocean, and we barely know about the universe and all its galactic bodies and forces. And although some of these questions seem to be part of WHY humans are so keen on achieving artificial super-intelligence on computers, it also seems like we are trying to reach something that would be extremely difficult to handle. By reaching ASI, we are hoping to answer all the world’s unanswered questions, and even defy nature by altering the pace of evolution and playing with humanity’s biggest truth: everyone and everything dies.
At a first glance, ASI seems great: answering every question, resolving any problem. But what about human purpose in life? All of our beliefs would be ripped apart in a few years, how could humans possibly adapt to such changes where concepts like: religion and mortality, no longer exist. Where would our purpose lie? If religion is overthrown by a computer and death doesn’t exist- why would humans want to keep living? What about being good? And what about working for a better world? If all of this is no longer relevant, then why exist at all? If every problem is solved, then there would no longer be inequality, racism, poverty, disease. Any job done today, could be done by a computer. What would humans strive for? Don’t we need some sort of order to keep us motivated into living every day?
Antes de que comiences a leer este blogpost, quiero que te mantengas con la mente muy abierta y creas una fraccion del Sci-Fi que puede ofrecernos la cultura pop. ¿Te imaginas como serian las maquinas responsables de nuestra extinción?
Seguramente tienes en mente un androide como Sonny en Yo robot ...
Como ingeniero en robótica dejame decirte que aun estamos lejos de lograrlo, repliciar el sistema de locomocion del ser humano es extremadamente complejo por no mencionar el sistema de sujeccion y balance dinamico de cargas. lo sé, ya me puse NERD; pero puedo afirmar que un Androide de los niveles de Sonny no será el causante a pesar de los grandes avances de DARPA y Boston Dynamics al menos en 50 años.
Aunque parezca increible, ATLAS no esta siendo consiente de que salta cajas y que hace giros en el aire. El sistema unicamente esta procesando señales que fueron traducidas por sensores (o sea ceros y unos) que activan actuadores neumaticos que lo hace brincar de una manera espectacular que sinceramente da miedo.
Ahora ... piensa en el termino "Super inteligencia"
Si, seguramente pensaste en alguno de tus heroes favoritos de la historia con IQ mayor a 130, quiza Einstein, Tesla o Marie Curie, sin embargo, el termino super inteligencia a la que nos referimos es una clase de inteligencia artificial donde las maquinas piensan y actuan racionalmente. Ahora ¿Es posible que en 50 años logremos este avance?
si volteamos a ver el pasado; date cuenta que no han pasado màs de 100 años desde que McCulloch y Pitts hicieran la primer demostraciòn sobre fisiología básica y el funcionamiento de las neuronas a hace unos meses Mark Zuckerberg anunciara la suspensión del proyecto Alexa gracias a que estaban perdiendo el control en su aprendizaje. Son 65 años para ser exactos.
Entonces … Como humanidad ¿Que nos depara los próximos 50 años?
Creo que serà un futuro grandioso lleno de asistentes personales que se extenderàn a edificaciones inteligentes, autos que nos obligarán a ser el eterno copiloto, ciudades que serán capaces de regular el tráfico mediante funciones y control dinámico en sus semáforos.
pero también creo que podríamos tener algunos tropiezos en el camino; y no por temas de Software y mucho menos de hardware tomando en referencia los avances que año con año nos presentan laboratorios de tecnología avanzada como Boston Dynamics o DARPA.
sino por cuestiones Éticas, si bien pensamos que podríamos desconectar los sistemas en cualquier momento como lo hizo el CEO de Facebook con Alexa tambien podria ser imposible hacerlo.
el tema etico debería evolucionar dela misma manera en la que la tecnología lo hace; al menos en el tema de la inteligencia artificial. si bien es un campo genuinamente universal donde sintetiza y automatiza tareas intelectuales y es, por lo tanto, potencialmente relevante cualquier ciencia que involucre sus conocimientos en la actividad humana.
sin duda uno de las prácticas que podrían llegar a perfeccionar la inteligencia artificial es la selección natural por la que Darwin se hizo conocido; pero con un poco de ayuda de nuestra parte. qué pasaría si metieramos a un cuarto gigantesco todos los avances en el campo, comenzaron a reconocerse y a aparearse entre sí de tal manera que el descendiente tenga la mitad de buena programación y la mitad de buena programación del otro ... a los no adaptados se les retira; si, es un experimento que se tiene contemplado pero que pasaría si psicólogos y más ramas a fin comenzaran a estudiar el comportamiento de las entidades como uno solo... podríamos reconocer que ente esta tomando un papel amenazador tanto para la comunidad como para la raza humana y erradicarlo antes de que logre madurar completamente.
No dudo que la tecnología vaya a tener un crecimiento exponencial en los próximos 30 años pero espero que ese mismo crecimiento lo tengamos como seres biológicos y por qué no puede que quien nos mande a Marte no sea SpaceX sino gracias a los diseños y asistencia de una Inteligencia Artificial.
One of the first things I have come to realize while researching Artificial Intelligence (AI) is the difficulty to define it. That is why I would like to delve a bit deeper into the basics so both the reader and I can be on the same page.
According to the Wikipedia, AI is intelligence demonstrated by the machines, in contrast to the natural intelligence displayed by humans and many animals. A typical AI perceives its environment and takes actions that maximize its chance of successfully achieving its goals. These goals can be simple, or complex, can be explicitly stated or remain implicit in the problem, and they will usually depend on the task the AI is trying to solve.
At this point we need to make a distinction between AI and algorithms, and it may get a bit messy due to what is known as the “AI effect” which can be represented as follows: As soon as AI successfully solves a problem, the problem seems to no longer be a part of AI.
For example, when IBM’s chess playing computer Deep Blue succeeded in defeating Garry Kasparov in 1997, people complained that it had only used “brute force methods” and it wasn’t real intelligence. Fred Reed writes:
“A problem that proponents of AI regularly face is this: When we know how a machine does something ‘intelligent,’ it ceases to be regarded as intelligent. If I beat the world’s chess champion, I’d be regarded as highly bright.”
Fred Reed (2006–04–14) “Promise of AI not so bright”.
So let us back up; we have algorithms, which are a set of unambiguous instructions that a mechanical computer can execute, and that do not imply any use of “intelligence” because every set of possibilities have been considered, and every response to them has been hardcoded. This is how Deep Blue beat Garry Kasparov; every time the human player made a move the computer considered every possible move up until a certain depth, ranked them according to how likely they were to succeed and executed the move with the highest likelihood of giving the computer an advantage towards winning the game.
This is where a very interesting new concept comes in; “Machine learning”, which refers to the ability that AI has to “learn” new things. In the case of Deep Blue, unless changes were made to its code, the a priori chances of beating Kasparov the first time were the same as beating Kasparov after a thousand games, assuming that Kasparov’s level remained the same.
That is not the case anymore, the best chess AIs nowadays have the ability to learn every time they play, therefore, the initial algorithm tends to evolve to the point where the AI becomes a black box and its moves are unpredictable even for the people that have programmed it. With learning we refer to gaining the abilities to execute certain strategies that were not hardcoded when the AI was first released.
And here another closely related concept enters the picture, Big Data: data sets so big and complex that traditional data-processing application software are inadequate to deal with them. These data sets allow, for example, for an AI to examine and learn from every chess game ever recorded in a matter of hours.
So suddenly, if we mix AI with machine learning and big data, we end up with a domain specific intelligence that is many times more advanced than human intelligence. This combination has led to AIs performing many tasks, not just chess, much better than its human counterparts such as driving, face recognition, pattern recognition…
Everything seems to point towards a future where AI outperforms humans in every task, which starts to take us closer to the subject of this article; the implications that ethics will have for AI. Because even if machine learning allows machines to develop their own way of thinking, we can still hardcode a set of rules, or boundaries that the AI will never be able to break. The same way we can let a kid do anything he wants inside a sandbox except: 1) Exit the sandbox, 2) fight other kids, and 3) eat the sand; we can let AI do anything it wants, except for a set of rules that it is always obliged to abide.
In that respect, one of the most famous formulation was made by Isaac Asimov with the three laws of robotics, which we can easily make extensible to all AI:
The original laws apply to just robots, but we are not sure what kind of container will AI have in the future. For example, movies such as 2001: A Space Odyssey or Her have showed more ethereal forms for sentient AIs.
The problem with this laws is that there are some ethical problems were the AI in question has no choice but to break one of the laws, because it is forced to choose the least bad of two bad options. Probably the most illustrative of these problems is the Trolley Problem. The traditional thought experiment is presented as follows:
You see a runaway trolley moving toward five tied-up (or otherwise incapacitated) people lying on the tracks. You are standing next to a lever that controls a switch. If you pull the lever, the trolley will be redirected onto a side track and the five people on the main track will be saved. However, there is a single person lying on the side track. You have two choices:
1. Do nothing and allow the trolley to kill the five people on the main track.
2. Pull the lever, diverting the trolley onto the side track where it will kill one person.Which is the most ethical choice?
As you can see, this is a challenging situation which can be easily extensible to a self-driving car controlled by an AI. If the car is about to drive into a group of 5 and killed them all, should the AI steer the car and kill its passenger instead?
In this situation the computer must break Rule #1: An AI may not injure a human being or, through inaction, allow a human being to come to harm. His only options are either to injure the driver, or allow 5 people to come to harm through inaction.
Many possible solutions have been formulated for the Trolley Problem and its countless iterations, but, obviously, there is no definitive answer and I will leave it up to the reader to decide how she believes that the AI should be programmed. If you want to take the experiment a bit further, visit MIT’s great web page linked below the above image.
Another interesting angle is how AI seems to be more racist and sexist than human intelligence. When humans make decisions about hiring, or granting a bank loan, they’re more likely to be questioned about their judgement. But when it comes to AI, even if we were to try to guess what it based its decision on, we would be facing a black box; artificial neural networks just cannot explain their decisions.
We could try to mitigate this problem by telling the AI not to use racial data when granting loans, but there are many other correlated variables such as names (for example, in the United States, the last names Wei or DeShawn are highly correlated to Asian American and African American people respectively). Therefore, the AI could conclude the race and sex of the person using many proxy variables without ever taking into account those variables explicitly. And assuming that either race or sex are variables that determine the likelihood of, as an example, repayment of a loan, AIs would be more likely to deny loans or grant them in worse conditions based on racist or sexist biases.
A great article published on the award winning Canadian magazine, The Walrus, delves deeper into this problem:
“Let’s say we’re concerned about race as the factor of discrimination,” deep-learning pioneer Yoshua Bengio says. “Let’s say we see that, in our data, we can measure race.” Another constraint can be added to the neural network that compels it to ignore information about race, whether that information is implicit, like postal codes, or explicit. That approach can’t create total insensitivity to those protected features, Bengio adds, but it does a pretty good job.
The article adds:
A growing field of research, in fact, now looks to apply algorithmic solutions to the problems of algorithmic bias. This can involve running counterfactuals — having an algorithm analyze what might happen if a woman were approved for a loan, rather than simply combing through what’s happened in the past. It can mean adding constraints to an algorithm, ensuring that when it does make errors those errors are spread equally over every represented group. It’s possible to add a different constraint to the algorithm that lowers the threshold of, say, university acceptance for a particular group, guaranteeing that a representative percentage gets in — call it algorithmic affirmative action.
The problems mentioned above are just the tip of the iceberg, a small subset of issues we are currently facing. If we decide to think about the year 2100, after singularity and with sentient robots everywhere , the ethical problems become almost intractable from our current perspective:
All these questions make it obvious that philosophers, judges and ethics professors, among other experts, will become more relevant in the AI field. In the meantime, it is up to us to keep learning about AI to try to transition smoothly to the new world where AIs will be making most decision, and hope that we do not end up in a distopyan future such as the one in Alphaville, one of my favorite sci-fi movies.
The original question, 'Can machines think?' I believe to be too meaningless to deserve discussion.
- Alan Turing
El termino Inteligencia Artificial o I.A. aunque parece ser un tema de nuestro siglo, se ha estado trabajando desde el siglo pasado cuando se realizaron las platicas de Dartmouth en 1956 y ha sido pensado desde antes de eso más que nada en obras de ficción con nombres como "Frankenstein" por Mary Shelley por nombrar un ejemplo.
Pero si gente lleva más de medio siglo trabajando y pensando en esta rama de las ciencias computacionales, surgen algunas preguntas como: ¿ Qué es exactamente la I.A. ? ¿ Por qué hasta ahorita es cuando se ha estado generando más ruido acerca del tema ? , y la pregunta del millón de dólares creada por Hollywood ¿ Debería estar preocupado de que me quiten mi chamba? o aun más alarmante ¡¿ Se apoderarán del mundo como los robots en Terminator ?
... Antes de que se aceleren vámonos paso a paso por pregunta
La Inteligencia Artificial es la rama de las ciencias computacionales que se enfoca en que una computadora haga cosas que ocupan inteligencia humana para realizarse. En el famoso libro "Artificial Intelligence: A Modern Approach" por Stuart J. Russell y Peter Norvig, los autores dan la definición de la inteligencia artificial en cuatro enfoques separados mostradas en una tabla que se mostrara a continuación:
Pensar HumanamentePara pensar como humano se ocupa saber como en verdad piensa un ser humano y aqui se incluye la parte de la ciencia cognitiva, la cual junta modelos de computadora con técnicas de la sicología para que la computadora observe a una persona y vea como piensa. |
Pensar RacionalmenteAqui se enfoca en la parte lógica de los humanos se incluyen unos pensamientos de filósofos griegos como Aristoteles. Pensamientos como: "Juan Carlos es un hombre; Todos los hombres son mortales; Por lo tanto , Juan Carlos es Mortal" Se espera que la I.A. piense racionalmente con lógica de acuerdo a la teoría que se ha desarrollado desde la Antigua Grecia. |
Actuar HumanamenteSe incluye la Prueba de Turing la cual fue hecha por Alan Turing y esta diseñada para diferenciar si el que la toma es una computadora o un humano. Esta incluye:
|
Actuar RacionalmenteSe dice que un "agente" es algo que actua y un "agente racional" es alguien que actua para llegar al mejor resultado. Se espera que la computadora actué de esta forma y de que "haga lo correcto" de acuerdo a su programación. |
Con estos cuatro enfoques nos podemos dar una idea de lo que es la Inteligencia Artificial, la que ha estado generando más ruido últimamente es la parte de actuar como un humano. Empresas como Google, Amazon, y Facebook se han estado enfocando en varias sub-categorías de la inteligencia artificial como Machine Learning, Procesadores del lenguaje, y Representación del conocimiento. Ejemplos incluyen el anuncio reciente de Duplex, un asistente creado por Google para facilitarte las reservaciones.
El tema de inteligencia artificial poco a poco empieza a emerger dentro de empresas importantes, pero la pregunta importante es ¿ Por qué ahorita es cuando empiezan a hablar de esto ?
Se puede decir que el tema de la llegada de la I.A. es multifactorial y se platicarán dos temas que se consideran de los más importantes de el ¿ Por qué ahora ? Los factores son el avance que la humanidad ha tenido en lo computacional y en lo biológico.
Ray Kurzweil en su libro "The Singularity is Near" habla sobre Gordon Moore, co-fundador de Intel Corporation, y su ley la cual se llego a conocer como "la Ley de Moore". En esta habla sobre como cada año el número de transistores en un circuito incrementaba al doble manteniendo su costo fijo. Esto implicaba mucho mejor rendimiento y precios más baratos en los circuitos.
Como pueden ver en la imagen de arriba, esto causa un efecto exponencial en el poder de computo y nos acerca aun más a el poder de procesamiento de un cerebro humano.
No solo los avances en poder computacional son los que han puesto que la sociedad empiece a hablar sobre la I.A., también se tiene que considerar los avances en investigación de la rama de la biotecnología. Cada año se aprende algo nuevo de como funciona el cerebro humano y esto es lo que en alguna forma se busca llegar a recrear cuando se habla de la I.A. La evolución tanto biológica como tecnológica nos han permitido suponer y decir que la I.A. esta prácticamente a la vuelta de la esquina.
Las siguientes dos preguntas son meras especulaciones ya que aun no hay respuesta certera de lo que pasara. Pero se tomara una opinión con la información que se tiene al momento.
Esta es una de las preguntas más frecuentes que salen al hablar de los avances en Inteligencia Artificial. Imagínense la situación en la que una computadora trabaja 24/7 con errores mínimos y no solo eso, si no que aprenderá a velocidades mucho más rápidas y estará consciente de corregir los defectos que se tiene al hacer su trabajo. Claro que cuando te lo pintan de esa manera surge el miedo en las personas. Hay que recordar que hoy en día hay un número muy alto de personas que dependemos de una computadora ( smartphones ) para llevar a cabo tu día. La colaboración del hombre y la máquina me hace imaginar un futuro en el cual los trabajos se hagan en conjunto con la Inteligencia Artificial . Un ejemplo que pasa hoy en día es el de los jugadores de ajedrez llamados "Centauros", estos son jugadores humanos colaborando con una computadora de muy alto nivel de procesamiento. Se obtiene la creatividad e intuición que se tiene con los humanos y el nivel de calculo y rapidez que se obtiene con una computadora para obtener una mezcla que puede vencer a cualquiera.
Otro punto importante cuando se habla del decremento de trabajos por la llegada de la I.A. es que aunque puede que muchos empleos queden obsoletos, otros nacerán de la nada. No olvidemos algunos trabajos que quedaron obsoletos por la llegada de la tecnología, por ejemplo antes existía el trabajo de tipógrafo y fue reemplazado por software de procesador de textos como Microsoft Word. A medida de que llegan avances tecnológicos muchos empleos dejan de existir, pero a la vez se crean nuevos trabajos en base a la necesidad que se tenga en ese momento.
Si nos metemos más a fondo hay varias sub-categorías de inteligencia artificial dependiendo del grado o calibre del programa. Estos son ANI ( Artificial Narrow Intelligence o Soft A.I.), AGI ( Artificial General Intelligence o Strong A.I. ), y ASI ( Artificial Super Intelligence ). Hoy en día empresas han llegado a crear ANI, como ejemplos se puede decir que el buscador de Google o Siri de Apple son I.A. que se enfoca en un solo trabajo. Las otras dos ( AGI y ASI ) son las que no se ha podido llegar y las que se esta buscando llegar hoy en día. Estos dos tipos de I.A. son las que Hollywood ha recreado en películas como 2001: Una Odisea en el Espacio, la serie de Terminator, y I,Robot. Para evitar esos escenarios depende mucho de nosotros, primero que nada se debe buscar de donde recibe y de quien recibe la información la Inteligencia Artificial. Como ejemplo se tiene Tay.ai , un bot con I.A. de la empresa Microsoft que recibía información de los tweets que le mandaban. Este bot solo tardo un día en convertirse en racista gracias a los comentarios que le dejaban los usuarios de Twitter. Es necesario estar conscientes de la información que difamamos en el internet porque puede ser que en un futuro una computadora tome decisiones en base a eso.
https://giphy.com/gifs/adventure-time-computer-LtGbyZt3PFRZu
Nick Bostrom en su libro "Superintelligence" habla sobre la ASI, una super entidad tan inteligente que va a superar a humanos de maneras en las que no podemos comprender porque no somos tan listos para imaginarnos ese tipo de cosas. Es por eso que se deben de empezar a discutir normas y regulaciones en cuanto a la creación de este tipo de computadoras y prevenir desastres que puedan salir.
El tema de la Inteligencia Artificial esta aquí para quedarse. Aunque algunos expertos en el tema dicen que hay una probabilidad del 50% que pase para dentro de 20 años, hay otros expertos que dicen que nunca llegara. Las aplicaciones que se pueden llegar a tener en tu vida personal o laboral son inmensas. Poco a poco las empresas se ponen a cuestionar como lograrán implementar I.A. a sus procesos. Es importante estar al tanto de lo que pasa en el area porque este tipo de proyectos son los que cambian y transforman la humanidad en maneras que no podemos ni imaginarnos.
REFERENCIAS:
https://infogram.com/ai-timeline-1ho16v1wjzn76nq?live
El ser humano por naturaleza es curioso y observador, es por esto que desde siempre ha buscado comprender cómo funcionan las cosas, de dónde vienen, qué más hay además de lo que podemos ver, qué son las luces que brillan en el cielo y han dedicado mucho esfuerzo en lograr entender qué hay en el espacio.
Los avances que se han dado en la tecnología, han ayudado a facilitar la exploración del espacio. Parece sorprendente que hace 49 años fue la primera vez que el hombre pisó la luna, en el 2001 fue la primera vez que una persona fue como “turista” al espacio, “en el 2016 la NASA descubrió 1,284 nuevos planetas”[1], ese mismo año regresaron 2 astronautas después de haber estado en el espacio durante 1 año, también fue el año en el que el cohete de SpaceX hizo el primer desembarco en el mar y en el que Blue Origin’s utilizó por tercera vez el mismo cohete. Actualmente, hay aproximadamente 3,500 satélites artificiales en órbita y gracias a esto existen servicios como el GPS, televisión, radio y telefonía satelitales que permiten que se desarrollen tecnologías que han facilitado la vida del ser humano. Un ejemplo de esto son los navegadores como Waze, o la televisión que permite que eventos deportivos puedan ser vistos en tiempo real del otro lado del mundo.
Facebook tiene un proyecto que consiste en lanzar un satélite que provea de Internet a África para que no se queden tan rezagados tecnólogicamente.
Gracias a que la tecnología evoluciona exponencialmente como lo explica la Ley de Moore[2] donde año con año las cosas se vuelven el doble de rápidas necesitando la mitad del espacio, se pueden alcanzar objetivos que hace unos años se veían muy ambiciosos e incluso inalcanzables.
Stephen Hawkings mencionó en una entrevista que aunque la posibilidad de que la Tierra sufra un desastre próximamente sea baja, ésta se acumula con el tiempo, es por esto que Jeff Bezos, CEO de Blue Origin’s “tiene el objetivo de contar con un transporte reutilizable y relativamente barato para que el ser humano pueda viajar al espacio.”[3]
En cambio, Elon Musk, CEO de SpaceX (competencia principal de Blue Origin’s) “tiene el objetivo de colonizar Marte y ayudar a la humanidad a convertirse en una especie de múltiples planetas.”[4]
Bezos y Musk tienen diferentes caminos para lograrlo pero tienen como objetivo final colonizar el espacio, para esto se están enfocando en intentar disminuir los costos de sus misiones para que no sea una realidad tan lejana. SpaceX tiene como fecha estimada para conquistar Marte el año del 2022 mientras que Bezos ofrecerá ya el siguiente año viajes a turistas para ir al espacio.
Recientemente el CEO de la empresa de aeronaves Boeing declaró que le ganarán a SpaceX y serán los primeros en lograr que una persona pise Marte. Elon Musk no se sintió amenazado por esto, en cambio los invitó a que lo hagan. Claramente, si el objetivo final es el mismo que es “colonizar” a Marte hay que empezar por poder llegar allá. Que se esté intentando lograr el mismo objetivo de dos formas completamente diferentes nos da mayor probabilidad de éxito y desencadenará avances importantes pero claramente falta mucho tiempo para lograr una colonización.
Las operaciones de Bezos y Musk tienen costos muy elevados para poder llevarlas a cabo, además de que cuentan con grandes riesgos.
¿Qué tan válido es invertir una cantidad altísima de dinero en algo totalmente desconocido, incierto e inclusive peligroso cuando el planeta en el que vivimos se está destruyendo? ¿No sería más conveniente utilizar ese dinero para solucionar los principales que nos aquejan? ¿Cómo vamos a cuidar de más planetas cuándo no podemos con uno solo?
El viaje que Blue Origin’s le ofrecerá a los turistas para ir al espacio, es realmente dirigido a un sector muy pequeño de la población. “Algunos estiman que el precio rondará entre los 50 mil y los 250 mil dólares, lo que equivaldría a entre un millón y cinco millones de pesos.”[5] Aunque viajar al espacio parezca una idea muy atractiva para todos hay que pensar que tanto sentido tiene que vayan los turistas y no únicamente los astronautas, quienes si van con un fin de exploración. Mientras no puedas vivir en el espacio, este viaje podría resultar un tanto inútil, es decir sería algo similar a viajar a París únicamente para ver la Torre Eiffel desde el avión y regresar ese mismo día.
Si vemos la exploración espacial como algo independiente es muy cara y únicamente sirve para validar teorías y satisfacer la curiosidad del ser humano aunque en realidad ésta no tiene límite.
Viendo el panorama completo, estos programas han ayudado al desarrollo de la humanidad al generar tecnología que tiene aplicaciones en la vida diaria que mejoran la calidad de vida de la sociedad.
La inversión en Investigación y Desarrollo dentro de cualquier empresa es súper importante para lograr cambios que generen avances exponenciales y ventajas competitivas de cara a la competencia.
Análogamente, el área de exploración espacial es fundamental para lograr nueva tecnología que resulte en un avance competitivo contra los demás países.
En México, urge hacer conciencia de esto para no quedarnos estancados siguiendo lo que hacen los demás países sino que seamos el país a seguir.
[1] https://cnnespanol.cnn.com/2016/12/30/estos-fueron-los-logros-mas-importantes-de-la-nasa-en-2016/
[2] https://es.wikipedia.org/wiki/Ley_de_Moore
[3] https://thenextweb.com/insider/2016/04/13/blue-origin-vs-spacex-2-billionaires-race-colonize-space/
[4] https://thenextweb.com/insider/2016/04/13/blue-origin-vs-spacex-2-billionaires-race-colonize-space/
[5] http://www.milenio.com/tecnologia/podras-viajas-espacio-gracias-dueno-amazon
¿Te parecería viable que todas las personas tuvieran un salario fijo hasta cierta edad por el simple hecho de haber nacido? Si a mí me lo hubieran preguntado hace una semana hubiera dicho que no, pero después de las lecturas y los videos que me tocó analizar para mi artículo del mes de mayo de Global Trends, mi respuesta ha cambiado.
El cambio surge después de conocer el término “Universal Basic Income” y todo lo que hay detrás de este concepto. No es que no hubiera escuchado el término antes, más bien no estaba familiarizado ni le había dado importancia al tema; es más, ni siquiera voté por este “topic” como tema para este mes. Claramente me hubiera perdido de una muy buena lección y aportación si hubiéramos dejado esto a un lado y por lo tanto tampoco quiero que tú te lo pierdas.
UBI (Universal Basic Income), trata en esencia de una garantía básica de sueldo para cada ciudadano con el objetivo de que tengan un “colchón de recursos” del cuál comer y pagar sus gastos mínimos. Así tendrían tiempo para hacer lo que verdaderamente les apasiona. En lugar de trabajar para ganar dinero, recibirías un ingreso y posteriormente decidirías en que invertir tu tiempo.
De esta forma la gente podría contribuir haciendo cosas gratis, desarrollando nuevas soluciones a los problemas que nos agobian, descubriendo nuevas curas, nuevas tecnologías, y contribuyendo con distintas perspectivas. Quizás, de esta forma, lograríamos poder tener un mejor mundo y sociedad.
Hoy en día vivimos en una era donde la tecnología nos acerca a esta propuesta y logra alejarla del rincón en donde se encuentra arrumbada como una utopía. ¿Cómo es esto posible? Gracias a la automatización, la cual acabaría con empleos rutinarios, como ser chofer de camiones de carga o empleados en los fast food. Y también otros empleos tradicionales como abogados, médicos, pilotos, puestos administrativos, entre otros. ¿Y los empleos de esta gente? Se perderían pero abrirían la oportunidad de nuevas ocupaciones más gratificantes y con mayor sentido. Y si a esto le sumamos el UBI por primera vez las personas podrían emplear su tiempo libre en hacer algo de su interés sin preocuparse únicamente por el aspecto económico.
Pero los benefícios no serían solamente económicos y una cuestión de seguir tu pasión según estudios realizados en Manitoba, Canadá en los años 70’s. Los estudios surgen de una prueba piloto aplicada bajo un escenario llamado “Mincome”que básicamente es lo mismo que UBI, el cuál demostró que las visitas a los hospitales se redujeron, la tasa de población que concluía sus estudios de secundaria aumentaron y la gente utilizaba los espacios públicos de manera más responsable. ¿Interesante no?.
Hoy en día varios países ya tienen pensado lanzar pruebas bajo el modelo mencionado, por ejemplo Finlandia, Suiza y Canadá. Suiza está proponiendo $2,800 USD al mes.
Se que UBI suena muy positivo y existen varios cuestionamientos y preguntas como ¿de dónde se obtendrían los recursos para “mantener” a todos los mexicanos?, o que la gente sería más floja todavía y serían unos huevones mantenidos, ¿por qué los tendríamos que mantener? y es válido. Ante todos estos cuestionamientos existen ya propuestas aunque no son definitivas ni cien por ciento acertadas; sin embargo, las mentes detrás de la idea del UBI nos invitan a visualizarlo desde una perspectiva futura de tecnología avanzada y no desde el escenario económico actual.
Este planteamiento, que se están haciendo países de primer mundo, me parece necesario para la época actual porque, por primera vez en la historia de la humanidad, la gente podría tener las mismas oportunidades. Esto es necesario porque la desigualdad empieza desde la infancia temprana como consecuencia de una mala nutrición. Está comprobado que el cerebro de una persona en condición de pobreza alimentaria no se desarrolla igual que el de una persona con adecuada nutrición.
También resulta necesario porque, por primera vez, se pensaría en un bien común y no solo en cómo tener ventaja sobre los demás.
Al tener tiempo libre, estoy seguro de que la gente haría cosas interesantes que le apasionarían. Quizás en un principio sería muy caro y visto como un “gasto” innecesario, pero estoy seguro de que, al hartarse de no hacer nada, la gente comenzaría a trabajar en algo benéfico para los demás. Reitero que el hombre si está en búsqueda del sentido y como sociedad privilegiada pensante debemos de comenzar a creer en la voluntad individual y en la equidad. Ésta es una buena forma de devolverle a la gente el control de su vida.
Andrés Uzeta
Ben Schiller. (2015). A Universal Basic Income Is The Bipartisan Solution To Poverty We’ve Been Waiting For. 31.06.2018, de Fast Company Sitio web: https://www.fastcompany.com/3040832/a-universal-basic-income-is-the-bipartisan-solution-to-poverty-weve-bee
Ben Schiller. (2016). Welcome To The Post-Work Economy. 31.06.2018, de Fast Company Sitio web: https://www.fastcompany.com/3056483/welcome-to-the-post-work-economy
Farhad Manjoo. (2016). A Plan in Case Robots Take the Jobs: Give Everyone a Paycheck. 31.06.2018, de The New York Times Sitio web: https://www.nytimes.com/2016/03/03/technology/plan-to-fight-robot-invasion-at-work-give-everyone-a-paycheck.html?smid=tw-share&_r=1
Scott Santens. (2014). Why Should We Support the Idea of an Unconditional Basic Income?. 31.06.2018, de Medium Sitio web: https://medium.com/working-life/why-should-we-support-the-idea-of-an-unconditional-basic-income-8a2680c73dd3
Albert Wenger. (2015). A BIG idea, a bot idea -- How smart policy will advance tech . 31.06.2018, de Tedx Talks Sitio web: https://www.youtube.com/watch?v=t8qo7pzH_NM