Espero que no, al menos no de la manera en que los humanos lo hacen.
Un sueño son los disparos aleatorios (aparentemente) de sinapsis en nuestro almacenamiento de memoria a corto y largo plazo. Es parte del proceso utilizado para transferir memoria a corto plazo a la memoria a largo plazo. Hay más que eso, pero esa es la idea básica. Un sueño fantasioso de volar, o lo que sea, viene de nuestro cerebro tratando de interpretar los disparos al azar en algún tipo de construcción lógica, manejada por nuestro subconsciente. Nuestros cerebros reciben un pensamiento desencadenante y / o sensaciones, como perturbación del oído interno o emociones, y no pueden encontrarle sentido alguno sin llenar los vacíos a su alrededor. Ahora, el “material de relleno” o incluso la fuente / selección del “material desencadenante” aún no se conoce completamente en este punto, y es probable que haya más de lo que “oficialmente” nos damos cuenta.
Un robot no debería necesitar hacer esto como parte de su ventaja sobre los humanos, es el hecho de que la memoria se puede almacenar directamente. El disparo aleatorio de ideas como esa solo serviría para desordenar el sistema de memoria, y me preocuparía mucho que “recordar un sueño” pudiera ser perjudicial para el robot. Por ejemplo, “recordar” que su creador intentó destruirlos, podría tener consecuencias no deseadas si no están seguros de que fue solo un sueño, o partes de él estaban fragmentadas y unidas a experiencias del mundo real. Peor aún, los repetidos “sueños” podrían reforzar las ideas que podrían causar problemas para el comportamiento del robot.
Por supuesto, si la idea era simular a un ser humano, podría ser bueno tener un “tiempo de inactividad” donde el robot pueda recargarse, mientras se alimenta de “sueños” que en realidad son programación actualizada, corrección de fallas, antivirus, etc.
Habiendo dicho todo eso, no estoy seguro de que vayamos a hacer una IA que esté en el nivel de inteligencia humana. Si bien podría ser útil, no es necesario actualmente porque el uso de robots está más definido que el “uso de humanos”. Más o menos como el concepto de un niño que puede convertirse en lo que quiera ser, en comparación con un robot cuya operación siempre estará en cualquier campo para el que estaba especializado.
Mi pensamiento es que, si tuviéramos robots con ese tipo de complejidad AI, podrían necesitar tener los mismos escenarios de aprendizaje que un ser humano. En otras palabras, ir a la escuela junto con humanos, etc., y etapas de desarrollo similares. Esto no va a ser útil para un sistema especializado, a menos que tengamos uno o dos como ese, que podría crear la programación operativa para otros robots que ESTÁN especializados. Por ejemplo, el robot inteligente aprende todo lo que puede, y luego compartimenta parte de la información, para alimentar a los robots especializados en reparación de tuberías, y otras cosas relacionadas que aprendió, como caminar, podrían cargarse y luego descargarse otros robots. , para poder omitir toda la necesidad de programación humana de ese sistema.
¿Alguna vez has tenido un sueño en el que alguien muy cercano a ti murió?
Cómo trabajar duro para lograr mis sueños
Tengo la impresión de que surgirá una legislación que bloqueará el desarrollo de la inteligencia artificial en este nivel sin una supervisión constante, regulación, etc., porque los legisladores temerán su eventual reemplazo. Será alimentado por los temores de que los sistemas de inteligencia artificial se apoderen del mundo, etc.