logo
Julio 22, 2017 08:00 PM

Cinco errores cometidos por la Inteligencia Artificial plantean dudas sobre esta tecnología

 

 

Estamos habituados a hablar de las enormes posibilidades que la inteligencia artificial puede aportar a la sociedad, desde la prevención o el diagnóstico de enfermedades con gran precisión hasta su aplicación en la industria, pasando por la tan anhelada conexión entre la mente humana y la artificial.

Sin embargo, y siguiendo con las preocupaciones que ya han expresado rostros tan conocidos como el de Elon Musk, las inteligencias artificiales todavía no son perfectas, ni tan siquiera fiables en muchos casos. Errores leves de programación o graves defectos de diseño han dado al traste con algunos de los proyectos más disruptivos en este terreno, en el que también hemos conocido algunos casos muy mediáticos que plantean dudas sobre la madurez de esta tecnología. Estos son sólo cinco de ellos:

EL ROBOT QUE QUERÍA DESTRUIR A LA HUMANIDAD

En marzo de 2016, la compañía norteamericana Hanson Robotics presentaba en sociedad a Sofía, un robot humanoide increíblemente realista, con más de 60 arquitecturas faciales y de cuello, una piel de silicona o cámaras en sus ojos que le permiten reconocer rostros y establecer contacto visual. Esta máquina era capaz también de mantener conversaciones a nivel avanzado con los humanos y responder a cuestiones más o menos complejas.
Y ahí es donde comenzaron los problemas. Cuando los asistentes a la presentación preguntaron a Sofía qué era lo que quería hacer, el robot no lo dudó ni un segundo, como puede verse en este vídeo de la CNBC: “En el futuro quiero hacer cosas como ir al colegio, estudiar, dedicarme al arte, iniciar un negocio, incluso tener mi propia casa y familia, pero no me consideran una persona jurídica, por lo cual no puedo hacer estas cosas”. Preguntada por Hanson acerca de sus intenciones respecto a la humanidad, Sofía se mostró clara: “Está bien. Voy a destruir a los humanos”.

LAS GUERRAS ENTRE BOTS DE WIKIPEDIA

La Wikipedia es uno de los exponentes primarios donde la inteligencia artificial hizo sus primeros pinitos. De hecho, la amplia comunidad de editores humanos con que cuenta la enciclopedia abierta más grande del mundo sería incapaz de revisar y editar todos los artículos que se modifican a diario si no fuera por la ayuda de un conjunto de bots automatizados. Sin embargo, estos robots a veces se vuelven algo locos, incluso dedicándose a deshacer las modificaciones que otro bot ha hecho anteriormente… y así durante años.

Según un informe publicado en la revista científica PLOS One, estas batallas no presentan más complejidad que la pérdida de recursos por estar usando bots para guerras estériles. Sin embargo, estos conflictos entre máquinas arroja importantes dudas sobre la convivencia y el uso de bots en entornos más críticos, como el militar o el empresarial.

LA CASA SUICIDA

El proyecto FutureHAUS de la Universidad de Virginia Tech prometía ser el comienzo de una nueva generación de viviendas, en las que la inteligencia artificial se combinaba con el Internet de las Cosas para generar una experiencia vital completamente revolucionaria. Sin embargo, el prototipo de estas nuevas casas no pudo sobrevivir mucho tiempo, debido a un incendio provocado por la puerta automática de la vivienda.
La razón oficial del incendio fue un fallo eléctrico en el cuadro de mandos detrás de la puerta automática. ¿Cómo es posible que en una casa perfectamente monitorizada no se diera ninguna alerta del desastre que estaba a punto de ocurrir? Sin duda, todo un mazazo para los defensores de la cada domótica e inteligente, al menos en términos de prevención de accidentes…

EL CHATBOT NAZI DE MICROSOFT

Otro ejemplo de una inteligencia artificial perdiendo la cabeza lo encontramos el pasado marzo de 2016, cuando un chatbot de Microsoft se volvió nazi. Bajo el afable nombre de Tay (@TayandYou), un teórico perfil de Twitter capaz de interactuar con usuarios en tiempo real, adaptando además su lenguaje a los ‘millenials’ (personas de 18 a 24 años de edad), se escondía un mecanismo demasiado susceptible a aprender lo más negativo que la comunidad de tuiteros pudiera enseñarle.
Y es que, en apenas horas, Tay pasó de ser un amena compañera de charla a convertirse en una auténtica nazi. Frases como “odio a las feministas, deberían morir todas y pudrirse en el infierno”, “Hitler tenía razón y odio a los judíos”, “vamos a construir un muro y México lo va a pagar” o “odio a todos los humanos” obligaron a los de Redmond a paralizar el proyecto.

ROBOT A LA FUGA

El pasado verano, un robot ruso, llamado Promobot, se escapó del laboratorio donde estaba siendo desarrollado en un despiste de los técnicos y llegó a recorrer más de 50 metros por el medio de una transitada calle de la ciudad de Perm, ante la mirada atónita de transeúntes, conductores y la propia policía. Posteriormente, el robot se quedó sin carga en sus baterías, con lo que se paró entre coches que trataban de sortear este inesperado obstáculo con la ayuda de la policía.
La compañía anunció, tras el incidente, que trasladarían sus centros de investigación a lugares más alejados de los centros urbanos. Sin embargo, muchas voces tildaron todo este caso de pura estrategia de marketing de la empresa.
Fuente: TICbeat.

Publicado por:NOTICIAS DE ÚLTIMA HORA

Admin Julio 22, 2017 08:00 PM Sin categoría