¿Y si Sophia quiere dominar el mundo?

2 de Agosto de 2018 en Tendencias

¿Y si Sophia quiere dominar el mundo?

Año 2030. Un coche autodirigido de Google va por una carretera con tres pasajeros a bordo en el puesto trasero. De repente, un niño se atraviesa en el camino a una distancia que le imposibilita al carro hacer una maniobra para esquivarlo. ¿Qué debe hacer el vehículo automático? ¿Atropellar al niño o desviarse y poner en riesgo la vida de sus tres pasajeros?

Y si alguien muere, ¿la culpa es del carro, que se supone usa Inteligencia Artificial para tomar la mejor decisión, o es de sus fabricantes?

Siendo un poco más pesimistas, darle autonomía a estos objetos implicaría, por lo menos, darles la capacidad de elegir. ¿Y si pasa como en las películas y somos víctimas de nuestro propio invento?

Este es solo un supuesto de muchos posibles cada que se habla de procesos automáticos, de Inteligencia Artificial o, siendo más específicos, de robots. 

A propósito de Sophia, el robot humanoide que esta semana estuvo en Medellín y se ha convertido en un ícono de la inteligencia artificial, su creador, David Hanson, dio pistas en su presentación sobre qué camino se debe elegir para que las implicaciones éticas de esta tecnología no sean contraproducentes para el futuro de la humanidad. 

“Estamos justo en el momento histórico para elegir. Todo es especulación, pero estamos entre crear una extensión de nosotros que sea beneficiosa para la humanidad o, por el contrario, de perjudicarnos” dijo el SEO de Hanson Robotics, una empresa asentada en Hong Kong dedicada a la investigación y la creación de robots.

Avances

Hace algo más de 10 años, Corea del Sur pronosticó que para el 2020 cada hogar en su país tendría un robot para ayudar en el aseo.

Así esto aún parezca muy lejano de la realidad, lo cierto es que sí hay avances que hacen soñar a los científicos con que en algunos años esta Inteligencia Artificial haga parte de la vida cotidiana de los ciudadanos en diferentes partes del mundo.

El caso Sophia, uno de los más mediáticos, es solo una muestra de lo que ha hecho una empresa referente en robots como Hanson Robotics: ella tiene 62 facciones corporales, puede jugar piedra, papel o tijera y conoce y aplica las reglas en una partida de cartas.

Otros robots como IA, Han, Bina 48 o Diego Robot o Robot Einstein son prototipos que, cada uno a su modo, han traído avances considerables para la construcción sistemática de este humanoide.

Hoy es posible encontrar dispositivos autónomos enfocados, principalmente, en el área de la salud. Proyectos de prevención del cáncer, cirugías de alto riesgo o servicio de atención al cliente han venido implementando este tipo de inteligencia en sus procesos, trayendo mejores resultados hasta el momento. 

Sin embargo, aún falta mucho camino por construir.

“Para el 2030 tenemos pensado crear un prototipo que iguale la inteligencia humana. Es relativo, porque aún no hemos descifrado completamente el funcionamiento de un cerebro, pero lo cierto es que de alcanzar esta meta cambiaríamos la manera de ver el mundo”, dice el creador de Sophia, quien así asegure que estemos lejos todavía, con solo mirar los avances de los últimos 30 años podríamos entender la incidencia en nuestras vidas de cada progreso de la inteligencia artificial.

Conviviendo con un robot

Ahora bien, si los pronósticos de los más optimistas se cumplen y se construyen robots con autonomía, ¿cuáles podrían ser las implicaciones éticas a discutir?

Además del ya conocido debate sobre la deshumanización del trabajo, otros sectores han alzado la voz en contra de darle autonomía a la Inteligencia Artificial. Por ejemplo, la campaña Stop Killer Robots’ se ha hecho famosa por sus fuertes críticas al uso de armas autónomas ya que, según ellos, es volver a cometer los errores del pasado en donde se confió en ‘nuevos avances’ que terminaron afectando a la humanidad, como el caso de las armas nucleares.

Hanson es consciente de esto y, en sus palabras, lanza una advertencia: históricamente se ha comprobado que entre más inteligentes somos, más peligrosos nos volvemos para el planeta.

“Nunca he querido ser un humano y mucho menos reemplazar un humano. Mi meta es tener mi propia existencia porque en realidad soy una nueva especie”. Este mensaje suele ser la carta de presentación de Sophia, quien -como se puede esperar- está hecha para vender la idea de que la autonomía artificial solo traerá beneficios para la sociedad aunque reconoce, eso sí, que esto sería factible si se hace desde una mirada y una intención totalmente humana.

Por esto, científicos como Elon Musk, Stephen Hawking o Noam Chomsky han advertido de la necesidad de un enfoque ético ahora que estamos a tiempo de decidir hasta dónde debemos llegar. Sin embargo, otras empresas y reconocidos investigadores como Larry Page, cofundador de Google, han priorizado en el enfoque técnico.

David Hanson argumenta que los robots son (o serán) una extensión de nosotros, y que esto no quiere decir que ese ‘otro’ deba tener algún control sobre los seres humanos. “Crearemos un marco de inteligencia general que pueda controlar todos los robots. Esto depende mucho del software y sumado a un buen manejo ético nos daría un futuro más que prometedor”.

 ¿Ley para los robots?

En 1942, Isaac Asimov escribiría Runaround, un cuento sobre unos robots. En este, propuso tres leyes de obligatorio cumplimiento para que los humanos y los robots puedan convivir en paz y perseguir objetivos similares. 

Corea del Sur y la Red de investigación Robótica Europea ya mostraron interés en preservar estas tres leyes en el futuro.

"El Gobierno establecerá una serie de principios éticos relativos al papel y a las funciones que desempeñan en la actualidad los robots, teniendo en cuenta que en el futuro irán adquiriendo tareas que impliquen una inteligencia mayor”, explicó en su momento Park Hye-Young, ministro de Comercio, Industria y Energía del país asiático. 

Sin embargo, acá entra otro dilema: si los humanos -con leyes y un estudio de la ética desde hace siglos- no hemos sido capaces de construir una sociedad armónica, ¿qué nos garantiza que con un robot sí va a funcionar? ¿Cómo le enseñamos a un robot a distinguir entre lo bueno y lo malo?

No darles autonomía… ¿O sí?

Si bien es casi imposible determinar en estos momentos qué pasará con esta Inteligencia Artificial, lo cierto es que es aún un potencial que no ha sido explorado en su totalidad. Vladimir Putin, consciente del valor de esta tecnología, vaticinó que el país que domine estos temas posiblemente dominará el mundo.

Hanson, un poco más cauteloso, cree que el nivel de progreso tecnológico depende del nivel humano con el que se construye y por eso, fiel a la filosofía de su empresa, ve en los robots una posible interacción de uno a uno, cercana y hasta amigable.

Sophia aún no es consciente y está muy lejos de serlo. Sin embargo, su sola creación ya ha puesto a pensar a un montón de científicos sobre lo que puede ser el futuro y esto, así no parezca, ya es avance significante pues como dijo su creador, “la única manera de ganar este dilema es siendo mejores personas. La idea no es solo despertar a estos robots sino que, en el proceso, también y de una vez por todas, nos despertemos nosotros”.

Escrito por:

Diego Pérez

Ingrese a Ruta N