QUE ES LA INTELIGENCIA ARTIFICIAL? | EL CASO LAMDA GOOGLE
Hola amigos, bienvenidos a Tech Lovers! Hoy hablaremos de la inteligencia artificial !
Los ingenieros de Google cometieron un gran error, ¿la inteligencia artificial no comprende la capacidad de despertar la conciencia?
En efecto, la inteligencia artificial es ahora capaz de hacer predicciones más precisas, pero se basa en estadísticas de datos a gran escala. Esta capacidad de hacer predicciones sin entender, obtenida a través del aprendizaje automático, tendría que basarse en big data, y no sólo en pequeños datos como puede hacer la gente en muchos casos.
No hace mucho, Lemoyne, ingeniero de IA de Google (en adelante, Google), afirmó que el modelo de lenguaje conversacional LAMDA está "vivo" y "su conciencia está despertando", y presentó 21 páginas de pruebas a tal efecto.
Considera que LaMDA tiene la inteligencia de un niño de siete u ocho años, y cree que LaMDA no sólo se considera un ser humano, sino que lucha por sus derechos como tal.
Las opiniones y pruebas de Lemoyne han llamado mucho la atención de la industria.
El caso llegó recientemente a su conclusión definitiva cuando Google emitió un comunicado en el que afirmaba que LaMoyne había infringido sus "políticas de empleo y seguridad de datos" y lo despedía.
Google afirmó que, tras una exhaustiva revisión, había descubierto que la afirmación de Lamoyne de que LaMDA estaba viva era completamente infundada.
Aunque "si la inteligencia artificial tiene conciencia autónoma" siempre ha sido un tema controvertido en la comunidad de la inteligencia artificial , la dramática historia del ingeniero de Google y LaMDA ha vuelto a suscitar un acalorado debate sobre el tema en la industria.
La máquina se vuelve parlanchina
"Si quieres viajar a acuérdate de abrigarte, porque yo aquí soy especialmente friolera". Esta fue la juguetona respuesta de La inteligencia artificial al chatear con el equipo de investigación mientras "jugaba" a Plutón, y cuando se le preguntó si "alguien ha visitado Plutón", fue capaz de responder con datos precisos.
Hoy en día, la inteligencia artificial es cada vez más parlanchina.
¿Hasta qué punto ha progresado el modelo de inteligencia artificial hasta el punto de que un profesional de la investigación en inteligencia artificial la consideraría consciente?
Se ha propuesto que el cerebro humano puede planificar el comportamiento futuro utilizando sólo una parte de la entrada visual. Sólo la entrada visual debería hacerse en un estado consciente. Ambas implican la "generación de información contrafáctica", es decir, la generación de las sensaciones correspondientes sin una entrada sensorial directa.
Se llaman "contrafactuales" porque implican recuerdos del pasado o predicciones de comportamientos futuros, en lugar de acontecimientos reales que están ocurriendo.
"La inteligencia artificial actual ya cuenta con sofisticados modelos de entrenamiento, pero depende de datos humanos para aprender.
Con la capacidad de generar información contrafáctica, la inteligencia artificial podría generar sus propios datos e imaginar por sí misma lo que podría encontrarse en el futuro, y ser así más flexible a la hora de adaptarse a nuevas situaciones con las que no se haya topado antes. Además, esto permite a la inteligencia artificial tener curiosidad. Si la inteligencia artificial no está segura de lo que ocurrirá en el futuro, lo probará por sí misma", afirma Tan Mingzhou, jefe de la División de Inteligencia Artificial de Farscape Intelligence y director de estrategia de Turing Robotics.
Gracias por ver nuestro video, si te ha parecido una informacion valiosa y de utilidad por favor no lo dudes y regalanos un ME GUSTA y tambien INSCRIBETE a nuestro canal para recibir noticias de actualidad en tecnologias !!!
Hasta la proxima amigos!