Fallo en altavoces inteligentes es una “puerta abierta” para los hackers
23 mayo, 2018¡Sorprendente! Una aspiradora robot ahuyentó a un ladrón en Israel
31 mayo, 2018Una empresa española crea Ethyka, un módulo con inteligencia artificial dirigido a evitar que un sistema se corrompa durante el contacto con seres humanos, una especie de conciencia para que tenga buenos comportamientos
Hace un par de años, Microsoft tuvo que lidiar con un programa informático que se había corrompido. Asimismo, la había convertido en un bot xenófobo y homófobo.
Por lo tanto, Tay nació como un experimento de (IA) Inteligencia Artificial que buscaba «aprender» de la interacción con humanos en redes sociales; siendo sin duda uno de los avances importantes en este campo por la gran cantidad de usuarios que se suman a estas plataformas digitales; este robot se trataba de un chatbot, una de las tendencias tecnológicas en auge, que destaca por tener comportamientos autónomos en servicios digitales.
Evitar malos hábitos de seres humanos en creaciones de IA, garantiza la estabilidad en el #sistema Share on XCon lo que no se contaba era en lo que se convirtió. El resultado fue catastrófico. Después de llamar «mono» a Barack Obama, el sistema «spameó» a los usuarios de la red Twitter e incluso animarles a para fumar marihuana delante de la policía; considerando que esto ha sido un caos virtual, que Microsoft no previó que se corromperá por la horda de «trolls» en la conocida plataforma de micromensajes. Sin embargo, los usuarios llevaron al sistema a su límite.
La incapacidad de la inteligencia artificial para discernir lo que estaba bien de lo que estaba mal provocó que Tay aprendiera lo que no debía y publicará tuits más que ofensivos. Al final, la compañía tuvo que eliminar parte de lo que el chatbot había adquirido antes de ponerlo en funcionamiento otra vez. Una situación que reabrió el debate acerca de los posibles peligros de la inteligencia artificial. La pregunta es obvia: ¿se puede enseñar a una máquina a diferenciar el bien del mal? Una empresa española cree que sí. De hecho, ha materializado esta idea en un módulo llamado «Ethyka».
«El inicio de esta idea llegó tras leer un artículo que decía que existían unos procedimientos elaborados por psicólogos para que personas que se habían quedado sin la capacidad de ética en el cerebro por un daño cerebral»
Su proyecto, que aún se encuentra en una ronda de inversión, pretende resolver el problema de la posible corrupción moral de los sistemas de aprendizaje autónomo cuando se encuentran en contacto con humanos. «El inicio de esta idea llegó tras leer un artículo que decía que existían unos procedimientos elaborados por psicólogos para que personas que se habían quedado sin la capacidad de ética en el cerebro por un daño cerebral o porque habían nacido así, adquirieron esta habilidad», cuenta Cristina Sánchez, cofundadora y directora general de Acuilae, en declaraciones a ABC.
Con esta lectura en mente llegaron a la conclusión; que si un profesional de la psicología podría plantear límites en el cerebro, por qué no lo podría hacer de la misma manera un módulo que se integrase en una IA.
Una especie de «Pepito Grillo» dentro de un asistente virtual, un robot o un coche autónomo.
Una conciencia dentro de la «inteligencia» de las máquinas; que logre que no se salgan del redil.
Los asistentes virtuales acaban aprendiendo de las personas que interactúan con él, el modulo lo que hace es que si es bueno lo aprende, pero si es malo (un dilema moral) no lo aprendería, añade.
La plataforma funciona mediante tres niveles para analizar los dilemas que se produzcan. La fase de cerebro en la que se define el proceso de decisión; de acuerdo a la ética humana y las funciones mentales morales.
El segundo grado «es el diseño del funcionamiento del; módulo de forma similar al del funcionamiento del cerebro (el diseño funcional)», explica la directiva. El diseño técnico o la arquitectura del módulo, por último, consta de ficheros, bases de datos y software.
Una gran «memoria»
Para entender cómo puede un software moderar; las respuestas de un sistema hay que partir de la base; de que todo lo que es inteligencia artificial está basado en unas cantidades ingentes de datos.
El sistema de Google es capaz de identificar las fotografías porque ha sido entrenado con muchísimas imágenes. En el caso de diferir lo bueno de lo malo, su modo de entrenamiento son los dilemas éticos. «El prototipo está entrenado con dilemas éticos comunes aplicados a un chatbot, aunque los desarrolladores lo pueden personalizar; para distintos ámbitos como la logística, leyes, educación, siempre aplicado a cada ámbito», subraya Sánchez.
El caso de este sistema es otro de los ejemplos; de que la IA se halla en uno de los primeros escalafones de un largo camino. Por el contrario, la inexperiencia también supone; un horizonte inexplorado de ideas donde las investigaciones dirigidas a las personas; igualmente pueden tener cabida en esta área en crecimiento, como puede ser la incorporación; de la ética a la robótica y a los dispositivos.
FUENTE / ABC