Avances en la Tecnología: Conoce el nuevo sensor que puede detectar enfermedades digestivas
12 junio, 2018Ya no se lo dejaras al futuro, Google sabrá el día de tu muerte
19 junio, 2018Cuando hablamos de los avances tecnológicos y sus aportes a la humanidad no podemos dejar a un lado las ideas que brinda la inteligencia artificial. Pero en esta oportunidad no hablaremos de sus beneficios, sino que se quiere profundizar las posibles alertas; que se generen a la comunidad con equipos que tengan esta interesante tecnología y lo es Norman.
Con la creación de los robots muchas son las teorías que sobresalen e indican que en un futuro las máquinas empiecen a pensar por sí mismas y acabarían gobernando la raza humana, también apuntan a los peligros que podría suponer estas redes neuronales de autoaprendizaje si se utilizaran de forma equivocada.
Para verificar esta información, investigadores del Instituto Tecnológico de Massachusetts (MIT) entrenaron a “Norman” una inteligencia artificial; con la información de sub-categorías que engloban crímenes, imágenes violentas o contenido perturbador, disponible en las redes sociales como “Reddit”.
Conoce más de Norman
Bautizado en honor a Norman Bates, esta red neuronal fue sometida a diferentes pruebas psicológicas después de haber sido entrenada en los rincones más negativos de Reddit. Las pruebas demostraron que se acercaba a rasgos patológicos humanos, como el trastorno alucinatorio crónico, por lo que sus creadores lo definen como «la primera inteligencia artificial psicópata».
Como antagonista de Norman, los científicos entrenaron a otra inteligencia artificial con imágenes de naturaleza y personas (no muertas). A las dos se las sometió al famoso test de Rorschach, la prueba de las manchas de tinta que sirve para evaluar el estado de ánimo de un paciente. Los resultados fueron aterradores: donde la inteligencia artificial «buena» veía un par de personas, Norman reconocía a un hombre saltando por una ventana.
Recordemos que esta investigación tiene como propósito; conocer los peligros de esta tecnología cuando su uso no atiende a buenas razones.
La inteligencia artificial asume posibles riesgos sobre la #humanidad Share on XSus investigadores indican que: «Ha sido donada a la ciencia; por el MIT Media Laboratory para el estudio de los peligros de la inteligencia artificial, demostrando cómo las cosas salen mal; cuando se utilizan datos sesgados en algoritmos de machine learning».
Por eso, la información defectuosa o sesgada para este tipo de sistemas pueden afectar de forma importante en el resultado. Y esto es un peligro muy a tener en cuenta en la nueva era del «machine learning».
FUENTE / ABC.ES