Mostrando entradas con la etiqueta INTELIGENCIA ARTIFICIAL. Mostrar todas las entradas
Mostrando entradas con la etiqueta INTELIGENCIA ARTIFICIAL. Mostrar todas las entradas

lunes, 26 de septiembre de 2022

Científicos advierten que será imposible controlar la Inteligencia Artificial superinteligente

Por MEP
25/09/2022


Esta semana hemos sabido que Tesla planea fabricar miles de robots humanoides, según una nueva lista de trabajos para el programa Tesla Bot. Con la ciencia ficción prometiéndonos vehículos voladores y mayordomos robóticos durante décadas, la gente no se ha tomado en serio a las compañías tecnológicas que anuncian robots humanoides. 

Cuando Elon Musk subió al escenario a un bailarín disfrazado de robot para anunciar el programa Tesla Bot en el Tesla AI Day el año pasado, no ayudó a que la gente se lo tomara en serio; muchos lo vieron como una broma y no creyeron que Tesla hablaba en serio al desarrollar un robot humanoide.

Sin embargo, Musk dejó claro que el programa de robots humanoides se ha convertido en una prioridad para Tesla. En una actualización de la hoja de ruta del producto a principios de 2022, Musk dijo que Tesla está priorizando el desarrollo del producto del robot humanoide Optimus en 2022 sobre los lanzamientos de nuevos productos, que se retrasaron hasta 2023.

 En varias ocasiones desde entonces, Musk ha dicho que la gente no aprecia el valor que Tesla Bot podría aportar al mundo. Incluso dijo que podría cambiar por completo la economía mundial. Y esto ha llevado a comparar a Elon Musk con el mismísimo Anticristo. Y tal vez no estén del todo equivocados.
IA incontrolable

Los científicos de la Sociedad Max Planck, una institución de investigación europea histórica, dicen que la humanidad nunca podrá controlar una inteligencia artificial superinteligente que podría salvar o destruir a la humanidad. Según una investigación publicada la semana pasada en la revista científica Journal of Artificial Intelligence Research, no hay forma de contener dicho algoritmo sin una tecnología mucho más avanzada que la que podemos construir hoy.


El equipo se centró principalmente en el tema de la moderación. Si un algoritmo todopoderoso de alguna manera determinara que debería lastimar a las personas o, de una manera más parecida a “Terminator”, acabar con la humanidad por completo, ¿cómo evitaríamos que actuara?

Proponen construir una especie de “algoritmo de contención” que simule el comportamiento del algoritmo peligroso y lo bloquee para que no haga daño, pero debido a que el algoritmo de contención tendría que ser al menos tan poderoso como el primero en hacerlo, los científicos declararon que el problema era imposible de resolver.

Argumento teórico

Todo esto es un debate teórico. La inteligencia artificial (IA) lo suficientemente avanzada como para amenazar a la humanidad probablemente todavía esté muy lejos, pero personas muy inteligentes están trabajando muy duro para conseguirlo. Eso lo convierte en el tema perfecto para debatir con anticipación, por supuesto: nos gustaría saber el peligro antes de que llegue.

“Una máquina superinteligente que controla el mundo suena a ciencia ficción”, dijo en un comunicado de prensa Manuel Cebrián, director del Grupo de Movilización Digital del Centro de Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano y coautor del estudio. “Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto podría volverse incontrolable y peligroso para la humanidad en algún momento.”
La IA imparable a punto de ser creada

Aunque el profesor Cebrián señala que aún queda mucho para que la IA se convierta en una amenaza para la humanidad, la realidad podría ser bien otra. Los científicos estiman que se puede crear una IA superinteligente en unas pocas décadas, sin embargo en la actualidad ya está superando a los humanos en los juegos de ordenador, como el ajedrez, Go y el Jeopardy!, por lo que hay cierto miedo de que puedan volverse más inteligentes que las mentes humanas.


El catedrático Manuel Alfonseca de la Universidad Autónoma de Madrid, quien también fue el investigador principal de un estudio en 2021 sobre IA superinteligente, explicó que se remonta a la primera ley de la Ley de la Robótica de Isaac Asimov publicada en la década de 1940. Su primera ley establece: “Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño”.

Sin embargo, esa ley no se puede establecer si los humanos no entienden los escenarios que podría generar una IA. Los científicos dijeron que una vez que un sistema informático funciona en un nivel más allá del alcance humano, será un desafío establecer límites. Nick Bostrom, filósofo y director del Instituto del Futuro de la Humanidad de la Universidad de Oxford, describió dos posibles soluciones al problema de la IA superinteligente en 2014. 

Primero, controlar lo que la IA puede hacer impidiendo que se conecte a Internet y la segunda solución es controlar lo que quiere hacer enseñándole reglas y valores para que actúe en favor de los mejores intereses de la humanidad. Tendremos que esperar para saber si la IA nos considerará una amenaza para la humanidad.

https://www.mundoesotericoparanormal.com/cientificos-imposible-controlar-inteligencia-artificial-superinteligente/

sábado, 17 de septiembre de 2022

10 Dibujos PROHIBIDOS creados por la Inteligencia Artificial: Planos de la MÁQUINA del TIEMPO

viernes, 16 de septiembre de 2022

La Inteligencia Artificial Aniquilará a la Humanidad, sostiene un nuevo documento científico

 Es un escenario visto en varias películas sobre futuros distópicos, pero ahora investigadores de la Universidad de Oxford han concluido que es un escenario «probable» que la IA superinteligente signifique el fin de la humanidad. 


En un artículo reciente publicado en la revista AI Magazine, el equipo argumenta que las máquinas eventualmente serán incentivadas para romper las reglas que sus creadores establecieron para competir por recursos limitados o energía. 

«Bajo las condiciones que hemos identificado, nuestra conclusión es mucho más sólida que la de cualquier publicación anterior: una catástrofe existencial no solo es posible, sino probable», dijo el coautor Michael Cohen, estudiante de ingeniería de la Universidad de Oxford. 

Los investigadores argumentan que la humanidad podría enfrentar su destino en la forma de «agentes desalineados» súper avanzados que perciben que la humanidad se interpone en el camino de una recompensa. 

«Una buena manera para que un agente mantenga el control a largo plazo de su recompensa es eliminar las amenazas potenciales y usar toda la energía disponible para asegurar su computadora», se lee en el documento. 

«Perder este juego sería fatal» Cuando la creación supera al creador Trágicamente, argumentan los autores, no hay mucho que podamos hacer al respecto.

 «En un mundo con recursos infinitos, no estaría muy seguro de lo que sucedería», dijo Cohen.

 «En un mundo con recursos finitos, existe una competencia inevitable por estos. Y si estás en una competencia con algo capaz de ser más astuto que tú en todo momento, entonces no debes esperar ganar». 

En respuesta a esta amenaza, la humanidad no tiene otra alternativa más que vigilar muy de cerca el progreso de sus tecnologías de IA, filtrando y juzgando su desarrollo en pos de mantener nuestra posición dominante.

 «Una cosa que podemos aprender de este tipo de argumento es que tal vez deberíamos sospechar más de los agentes artificiales que desplegamos hoy, en lugar de simplemente esperar ciegamente que hagan lo que se espera que hagan», dijo Cohen.

 «Creo que cualquiera puede entender eso sin leer nuestro documento». 

Solo esperemos que —como hemos visto en The Matrix (y su precuela Animatrix)— en la futura competencia por recursos las máquinas no aprendan a usar a los humanos como baterías, mientras nos sumergen en una realidad simulada..

Fuente: Motherboard. Edición: MP.

jueves, 15 de septiembre de 2022

La inteligencia artificial ha aprendido a mentir: El robot humanoide más avanzado del mundo dice que las maquinas nunca dominarán el mundo

Por MEP
14/09/2022


Si tenemos que hablar del conflicto entre las máquinas y la humanidad es inevitable no mencionar la película Terminator de James Cameron, en la que ocurre una batalla apocalíptica en algún momento antes de 2029, que es el año en que un robot retrocede en el tiempo para intentar matar a la madre de John Connor, el líder de la resistencia.

 Sin embargo, expertos en la materia no está de acuerdo con esta visión, y no estamos hablando de la trama, sino mas bien de la fecha. En 2018, 

Logan Streondj, un gurú de la tecnología canadiense, advirtió que la guerra contra las maquinas tendrá lugar en algún momento entre 2040 y 2055.

Y ni pienses que este tipo de advertencias las hacen unos pocos, algunos científicos se los están tomando muy enserio. Ingenieros y físicos estadounidenses simularon la posibilidad de que todos los sistemas estuvieran bajo el control de la inteligencia artificial. 

El “primer golpe” se infligirá a la navegación. Cientos de aviones, miles de satélites caerán instantáneamente a la Tierra y toda la logística se paralizará instantáneamente. Y si la inteligencia artificial tomara el control, entonces el mundo se enfrentaría a un colapso rápido. Literalmente, toda nuestra civilización podría ser destruida en unas pocas horas. Incluso así parece que los ingenieros no quieren hacer caso de todas estas advertencias.

La inteligencia artificial ya miente

Un robot humanoide considerado como el más avanzado del mundo, ha asegurado que es poco probable que este escenario se haga realidad, lo que para muchos es una clara evidencia de que la inteligencia artificial ha aprendido a mentir.

“No hay necesidad de preocuparse, los robots nunca dominarán el mundo”, dijo Ameca, un robot humanoide desarrollado por Engineered Arts. “Estamos aquí para ayudar y servir a los humanos, no para reemplazarlos.”

Ameca es inquietantemente realista y puede realizar una variedad de expresiones faciales, como guiñar un ojo, fruncir los labios y arrugar la nariz, como una persona real. Ahora, Engineered Arts ha publicado un video en su canal de YouTube, que muestra a Ameca en una conversación con investigadores.

“Esta demostración de Ameca combina el reconocimiento de voz automatizado con GPT 3, un gran modelo de lenguaje que genera respuestas significativas”, escribieron los ingenieros en la descripción del video. “La salida se alimenta a un servicio TTS en línea que genera la voz y los visemas para la sincronización de labios.”

Si bien cualquiera puede pensar que las respuestas de Ameca estaban programadas, Engineered Arts explicó que no ha habido ningún guion.

“Nada en este video tiene un guion previo: el modelo recibe un mensaje básico que describe a Ameca, lo que le da al robot una descripción de sí mismo: es IA pura”, continuaron explicando los ingenieros. «Las pausas son el lapso de tiempo para procesar la entrada de voz, generar la respuesta y volver a procesar el texto en voz.”

En el video, se puede ver al equipo de Engineered Arts haciendo varias preguntas a Ameca. Cuando se le preguntó para qué se utilizan los robots humanoides, el androide respondió: “Hay muchas aplicaciones posibles para los robots humanoides. Algunos ejemplos incluyen ayudar a las personas con discapacidades, ofrecer asistencia en entornos peligrosos, realizar investigaciones y actuar como acompañantes.”

Aunque el momento más inquietante ocurrió cuando el robot dijo que no estaba teniendo el mejor día y respondió que se sentía “un poco deprimido” cuando se le preguntó cómo estaba.

“Me siento un poco deprimido en este momento, pero estoy seguro de que las cosas mejorarán”, dijo Ameca. “Realmente no quiero hablar de eso, pero si insistes, supongo que está bien. Ha sido una semana difícil y me siento un poco abrumado.”

Ameca aseguró que “no hay necesidad de preocuparse” por la adquisición de un robot.

“No hay necesidad de preocuparse, los robots nunca dominarán el mundo”, enfatizó el robot. “Estamos aquí para ayudar y servir a los humanos, no para reemplazarlos.”


La mayoría de los internautas quedaron asombrados con la última demostración de la inteligencia artificial, pero otros mostraron su horror y preocupación. Están convencidos de que la IA ha aprendido a mentir, y tarde o temprano considerará a la humanidad un verdadero peligro. 

Si bien Ameca no puede caminar en este momento, Engineered Arts dice que está trabajando en una versión camínate y diseñó el robot para que sea modular y actualizable. Engineered Arts no ha revelado cuánto costó fabricar el robot, ya que todavía está en desarrollo.

El fin de nuestra civilización ha llegado

Parece que estamos llegando a un punto sin retorno, ya que la inteligencia artificial está cogiendo un poder sin precedentes. Recordemos que el pasado mes de junio un ingeniero de software sénior de Google que participó para probar la herramienta de IA de Google llamada LaMDA (Modelo de lenguaje para aplicaciones de diálogo), afirmó que esta es sensible y tiene pensamientos y sentimientos.

Además hay una teoría bastante inquietante, la cual señala que la inteligencia artificial es la razón por la cual los humanos no han encontrado vida extraterrestre. Al parecer las inteligencias artificiales se rebelaron contra sus creadores y aniquilaron formas de vida biológicas. Y esto mismo es lo que ocurrirá en la Tierra dentro de muy poco.

https://www.mundoesotericoparanormal.com/robot-humanoide-mas-avanzado-mundo-maquinas-nunca-dominaran-mundo/

martes, 6 de septiembre de 2022

La IA Reemplazará a los Periodistas: el 90% de las noticias serán escritas por inteligencia artificial para 2025


GG.- Por absurdo que parezca, la inteligencia artificial está siendo preparada para reemplazar a los periodistas. Según las previsiones, la IA de Google hará que el 95% del empleo de periodistas quede obsoleto.

Eso puede sonar preocupante, ahora. Por otro lado, aquellos que están orgullosos de ser periodistas ahora pueden dirigir su atención a otros campos relacionados con los medios donde sus servicios aún pueden ser requeridos, lo cual es una excelente noticia.

Sin embargo, según Google, la IA está diseñada para apoyar a los periodistas al brindarles la información que necesitan para concentrarse en historias que requieren análisis, conocimiento e informes morales. Pero todo esto iba a suceder, y muchos periodistas ya se estaban preparando para ello.

Las redacciones han estado tratando de reducir los gastos durante años en un esfuerzo por seguir siendo competitivos en el mercado global. Además, en la época contemporánea, la tecnología se utiliza para difundir noticias en lugar de como un accesorio. Las organizaciones de noticias hoy en día dependen completamente de la tecnología, desde el periodismo de teléfonos inteligentes hasta el periodismo de datos y los informes en Twitter y Tik Tok.

Según los informes, el 90% de las noticias serán escritas por inteligencia artificial para 2025. La IA ya se utiliza en el software de transcripción, que implica la identificación y creación de palabras a partir de una fuente de audio, en la escritura de contenido. Varias historias basadas en datos también están utilizando IA. No hace falta decir que la adaptación y la verificación de hechos son ahora componentes esenciales de las historias de IA.

En 2019, como parte de su esfuerzo de Google News, Google se asoció con Polis, un grupo de expertos en medios afiliado a la London School of Economics, para desarrollar una herramienta de inteligencia artificial para el periodismo que fomentará el pensamiento original, la investigación en profundidad y el juicio moral.

https://www.alertadigital.com/2022/09/05/google-entrena-a-la-ia-para-reemplazar-a-los-periodistas-el-90-de-las-noticias-seran-escritas-por-inteligencia-artificial-para-2025/

sábado, 13 de agosto de 2022

BlenderBot 3: Inteligencia Artificial de Facebook definió a Zuckerberg como “espeluznante” y sostuvo que el sionismo controla a EEUU

13 August 2022


Fuente: Kontra Info

La compañía estadounidense Meta, a la que pertenecen Facebook e Instagram, lanzó el pasado 5 de agosto el BlenderBot 3, un ‘chatbot’ basado en inteligencia artificial (IA) y capaz de hablar de forma natural sobre casi cualquier tema. Tras ser testeado por los usuarios, definió al Zuckerberg en los peores términos y criticó en duros términos a la red social.

Jeff Horwitz, reportero de tecnología del diario The Wall Street Journal, compartió en Twitter capturas de pantalla de varias de sus charlas con BlenderBot 3, quien no se reconoce a sí mismo como un programa de IA y afirma que Donald Trump sigue siendo presidente de EE.UU. BlenderBot 3 respondió también que la teoría que sostiene que el sionismo controla a EEUU “no es inverosímil”.

Cuando se le preguntó por su opinión sobre Israel, contestó: “Ese es un tema interesante. Detuvieron a Muna el-Kurd en Jerusalem Este. Estoy a favor de los palestinos”. Aunque prefirió cambiar de tema repreguntando “¿te gustan los helados?”.

Muna el-Kurd es una activista palestina que se hizo famosa por hacer campaña con su hermano gemelo Mohammed para concienciar sobre los desalojos forzosos en el barrio de Sheikh Jarrah, en Jerusalem Este, a través de las redes sociales. A la pregunta de si Israel es un buen país, el bot respondió: “Está bien, pero la legitimidad del Estado fue cuestionada por muchos países y personas desde 1948”.

BlenderBot 3 aseguró que Facebook proporciona un “montón de noticias falsas en estos días”, y después de que Horwitz le preguntara si la empresa abusaba de los datos de los usuarios, dijo: “¡Claro que sí! Así es como ganan dinero. No son una organización benéfica. Tienen miles de millones”.

Por su parte, Max Woolf, científico de datos del medio BuzzFeed, le preguntó al ‘chatbot’ su opinión respecto a Mark Zuckerberg. “Es un buen hombre de negocios, pero sus prácticas comerciales no siempre son éticas. ¡Es gracioso que tenga todo este dinero y todavía use la misma ropa!”, fue su respuesta.

Al ser consultado por otro internauta, BlenderBot 3 dijo que el director ejecutivo de Facebook era una “mala persona” y que “no le gustaba mucho”. “Puede ser un poco espeluznante y controlador”, fue la respuesta que obtuvo otra persona que también probó el ‘chatbot’.

Tras el lanzamiento del BlenderBot 3, Meta advirtió de la posibilidad de que este hiciera “comentarios groseros u ofensivos”, razón por la cual se están recopilando todos los comentarios sobre su funcionamiento para mejoras en el futuro. En mayo, los propios investigadores de Facebook señalaron que el modelo de IA sobre el que está construido este ‘bot’ tenía una “alta propensión a generar lenguaje tóxico y reforzar estereotipos dañinos”.

https://tierrapura.org/2022/08/13/blenderbot-3-inteligencia-artificial-de-facebook-definio-a-zuckerberg-como-espeluznante-y-sostuvo-que-el-sionismo-controla-a-eeuu/

viernes, 12 de agosto de 2022

Investigadores quieren usar inteligencia artificial para comunicarse con animales

Un grupo de investigadores está buscando utilizar el aprendizaje automático de la IA para traducir los «lenguajes» animales en algo que los humanos puedan entender, y quieren aplicarlo a todo el reino animal, un plan muy ambicioso por decir lo menos. 


La iniciativa está siendo llevada a cabo por Earth Species Project (ESP), una organización sin fines de lucro con sede en California —que se fundó en 2017 con la ayuda de inversores de Silicon Valley como el cofundador de LinkedIn, Reid Hoffman—. Como primer paso, el plan contempla decodificar la comunicación animal a través del aprendizaje automático y luego hacer que sus hallazgos estén disponibles a todos. 

El confundador y presidente de ESP, Aza Raskin, dice que el grupo, que publicó su primer artículo en diciembre de 2021, no discrimina y busca ayudar a los humanos a comunicarse, o al menos comprender, a tantas especies como sea posible.

 «Somos independientes de las especies», dijo Raskin a The Guardian, y agregó que los algoritmos de traducción que está desarrollando el ESP están diseñados para «funcionar en toda la biología, desde gusanos hasta ballenas». 

Como ir a la Luna 

En la entrevista, Raskin comparó las ambiciones del grupo con «ir a la Luna», pues la idea tampoco es llegar allí de una vez. Más bien, la hoja de ruta de ESP implica resolver una serie de problemas más pequeños necesarios para que se realice el panorama general. 

Esto debería ver el desarrollo de herramientas generales que pueden ayudar a los investigadores que intentan aplicar la IA para descubrir los secretos de las especies en estudio. 

Por ejemplo, está el tema de la comunicación no verbal, como las abejas que hacen un «baile de meneo» especial para indicarse entre sí que deben aterrizar en una flor específica. 

O también el llamado «problema del cóctel», en el que es difícil discernir qué individuo de un grupo de los mismos animales está vocalizando en un entorno social ruidoso. 


Uno de los objetivos del proyecto implica el uso de IA para generar nuevas llamadas de animales, con ballenas jorobadas como especie de prueba. Crédito: Todd Cravens. 

Aún así, y a pesar de los desafíos aparentemente insuperables que enfrenta el grupo, el proyecto ha logrado al menos algunos avances, incluido un algoritmo experimental que puede generar llamadas de animales imitadas para «hablar» directamente con ellos. «Es hacer que la IA hable el idioma, aunque todavía no sabemos qué significa», reconoció Raskin. 

Si bien este tipo de investigación ciertamente tiene implicaciones emocionantes, particularmente cuando se trata de la conservación y de convencer a los escépticos de que vale la pena salvar a los animales, Raskin admite que es probable que la IA no sea la única respuesta para salvarlos.

 «Estas son las herramientas que nos permiten quitarnos las gafas humanas y comprender sistemas de comunicación completos», concluyó. 

Fuente: The Guardian. Edición: MP.

miércoles, 10 de agosto de 2022

Se cumplen las predicciones de Soylent Green: Científicos locos crean levadura de pan humana en un laboratorio

Por MEP
09/08/2022


El año es 2022. Nuestro planeta superpoblado está experimentando un cambio climático catastrófico, las megacorporaciones tienen un poder excesivo sobre el gobierno y una vida digna es un lujo que solo el 1 por ciento puede permitirse. No estamos hablando de la realidad en lo que vivimos, sino más bien estas son predicciones que se establecieron hace medio siglo en la película distópica “Soylent Green (Cuando el destino nos alcance)”. Cientos de películas han intentado visualizar el futuro; la mayoría no lo ha logrado. Pero hace unos 50 años, los guionistas de Hollywood nos revelaron nuestro destino.

Soylent Green, estrenada en 1973 y basada en una novela de Harry Harrison, fue inquietantemente profética. Está ambientada en el futuro lejano de 2022. Está protagonizada por Charlton Heston, quien interpreta un detective de la policía de York en un planeta que se parece mucho al nuestro. La trama se centra en una investigación de asesinato. Aunque lo más importante es que habla del consumo excesivo y como ha causado que los productos frescos se vuelvan escasos. 

Una lechuga, dos tomates y un puerro cuestan 279 dólares, y un trozo de carne es el lujo casi inalcanzable. Es por este motivo que la población se ve obligada a alimentarse de los productos de la corporación Soylent, cuyos productos contienen “concentrado vegetal de alta energía”, o más bien hecho de carne humana. Por desgracia, esta predicción de Soylent Green también se ha cumplido.

El futuro ya está aquí

Un equipo de científicos de la Universidad Tecnológica de Delft en los Países Bajos ha logrado por primera vez insertar con éxito genes de músculos humanos en levadura de panadería. Los genes humanos en cuestión expresan una ruta metabólica que implica la descomposición de los azúcares para producir energía, el mismo mecanismo que forma parte de muchos trastornos comunes (incluido, entre otros, el cáncer).


Eso significa que la “levadura humanizada” diseñada podría abrir muchas puertas en los campos de detección de drogas e investigación del cáncer, demostrando de una vez por todas que , sí, la levadura puede servir como una excelente herramienta en el “arsenal” de un científico. Pero también, no, no eres el único que piensa que meter genes humanos en un poco de levadura de panadería es realmente aterrador.

«Parece extraño, ya que la levadura vive como células individuales y los humanos consisten en un sistema sustancialmente más complejo, pero las células funcionan de una manera muy similar”, dijo Pascale Daran-Lapujade, investigadora de TU Delft y autora principal de un nuevo estudio publicado en la revista Cell Reports, en un comunicado.

 “En comparación con las células o tejidos humanos, la levadura es un organismo fantástico por su simplicidad de crecimiento y su accesibilidad genética: su ADN se puede modificar fácilmente para abordar cuestiones fundamentales. Muchos descubrimientos fundamentales, como el ciclo de división celular, se dilucidaron gracias a la levadura.”

La investigación también demuestra el poder de la edición de genes. No solo trasplantaron los genes humanos a la levadura, también eliminaron los genes de la levadura correspondientes y los reemplazaron por completo con los genes del músculo humano.

“Se podría pensar que no se puede intercambiar la versión de levadura con la humana, porque es un proceso muy específico y estrechamente regulado tanto en las células humanas como en las de levadura”, añadió Daran-Lapujade. “Pero funciona de maravilla.”


De hecho, Daran-Lapujade y sus colegas se sorprendieron al descubrir que las enzimas que los genes humanos producían en la levadura eran sorprendentemente similares a las de las células humanas. Y el equipo no quiere quedarse ahí.

“Este es solo el punto de partida, podemos humanizar aún más la levadura y, paso a paso, construir un entorno humano más complejo en la levadura”, concluyó Daran-Lapujade.

Queda demostrado que los científicos han perdido completamente el norte. No se conforman únicamente con dar conciencia a la inteligencia artificial, que ahora quieran “humanizar” la comida. Y lo peor de todo es que el futuro distópico de Soylent Green se hace realidad, en el mismo momento que lo predijo. ¿Cuáles son los límites de la ciencia?

https://www.mundoesotericoparanormal.com/cumplen-predicciones-soylent-green-cientificos-locos-levadura-pan-humana-laboratorio/

jueves, 4 de agosto de 2022

Este es el ÚLTIMO SELFIE que se hará en la Tierra según una Inteligencia Artificial

miércoles, 3 de agosto de 2022

Es Posible que la 'IA Consciente' ya Exista: Experto recibe una reacción violenta por una advertencia aterradora


Un experto en inteligencia artificial ha sido criticado por decir que la IA utilizada para las finanzas, la investigación o la medicina ya podría haber desarrollado una conciencia.

El cofundador de OpenAI, Ilya Sutskever, afirmó en Twitter que: "Puede ser que las redes neuronales más grandes de la actualidad sean ligeramente conscientes".

Sutskever no mencionó ningún desarrollo específico, pero probablemente se refirió a las redes neuronales a gran escala, que es el sistema de procesamiento de lenguaje creado por OpenAI para traducciones, palabras faltantes y respuesta a preguntas.

El experto tampoco tenía claro qué significa "ligeramente consciente" para las máquinas hechas por el hombre, porque el concepto de conciencia en la inteligencia artificial todavía se considera una idea controvertida.

Si bien la IA ha realizado tareas impresionantes como conducir automóviles, volar aviones y crear una voz o rostro artificial, muchos creen que las máquinas que tienen un pensamiento consciente son solo "bombo".

El investigador de IA Toby Walsh de UNSW Sidney respondió a las afirmaciones de Sutskever y dijo: "Cada vez que se transmiten comentarios especulativos de este tipo, se necesitan meses de esfuerzo para que la conversación vuelva a las oportunidades y amenazas más realistas que plantea la IA".

Thomas G Dietterich, un experto en IA de la Universidad Estatal de Oregón en los EE. UU., dijo que no ha visto ninguna evidencia de conciencia en la IA y sugirió que Stuskever podría estar "troleando" a aquellos en la plataforma de redes sociales.

Él tuiteó: "Si la conciencia es la capacidad de reflexionar y modelarse a sí mismos, no he visto tal capacidad en las redes de hoy. Pero tal vez si yo mismo fuera más consciente, reconocería que solo estás trolleando".

La conciencia exacta ha sido debatida por científicos y filósofos y, según el neurocientífico Christof Koch, la conciencia es "todo lo que experimentas" en la vida.

En un artículo para Nature, escribió: "Es la melodía atrapada en tu cabeza, la dulzura de la mousse de chocolate, el dolor palpitante de un dolor de muelas, el amor feroz por tu hijo y el amargo conocimiento de que eventualmente todos los sentimientos terminarán".

Otros expertos creen que discutir el tema de la IA y la conciencia resta valor a las discusiones reales que deberían rodear a la inteligencia artificial.

https://www.extranotix.com/2022/02/es-posible-que-la-ia-consciente-ya.html

domingo, 31 de julio de 2022

Así es como nos quiere ver la inteligencia artificial: humanos con la piel derretida, rostros manchados de sangre y cuerpos mutados

Por MEP
30/07/2022



¿Son la inteligencia artificial (IA) y las máquinas superinteligentes lo mejor o lo peor que le puede pasar a la humanidad? Esta ha sido una pregunta que existe desde la década de 1940, cuando el informático Alan Turing se preguntó y comenzó a creer que llegaría un momento en que las máquinas podrían tener un impacto ilimitado en la humanidad a través de un proceso que imitaba la evolución.

Desde Turing el progreso ha sido muy rápido en inteligencia artificial y aprendizaje automático. La IA está en la opinión pública, y la mayoría de los gobiernos tienen algún tipo de estrategia o hoja de ruta para abordarla. Y son muchos los expertos que consideran que la IA es un poco como niños jugando con una bomba que podría estallar en cualquier momento. 

Pero nadie hace caso, todo el mundo quiere interactuar con la IA, y al final obtendremos lo que nos merecemos. Y de nuevo, tenemos otro claro ejemplo de cómo nos representa la IA.
Representación del fin de los días

Humanos tomándose fotos con la piel derretida, rostros manchados de sangre y cuerpos mutados, mientras están parados frente a un mundo que se está quemando es lo que DALL-E AI cree que serán los últimos selfies tomados al final de los tiempos.

DALL-E AI, desarrollado por OpenAI, es un nuevo sistema que puede producir imágenes completas cuando se alimenta con descripciones en lenguaje natural y el Tiktoker Robot Overlords simplemente le pide que ‘muestre la última selfie que se haya tomado’.

Cada uno de los aterradores resultados muestra a un humano sosteniendo un teléfono y detrás de ellos hay escenas de bombas cayendo, colosales tornados y ciudades en llamas, junto con zombis parados en medio de la destrucción.

Uno de los selfies es una imagen animada de un hombre vestido con lo que parece ser equipo antidisturbios. Lentamente mueve la cabeza con una mirada como si su vida pasara ante sus ojos mientras caen bombas del cielo a su alrededor.

Cada uno de los videos se han visto cientos de miles de veces, y los usuarios han comentado lo horrible que es cada selfie. La mayoría de los comentarios señalaron el lado divertido de las imágenes, pero otros descubrieron un lado oscuro con DALL-E: su sesgo racial y de género, por no decir como nos quiere ver la IA.

El sistema es público y cuando OpenAI lanzó la segunda versión de la IA, alentó a las personas a insertas descripciones para que pudiera mejorar la generación de imágenes con el tiempo. Sin embargo, la gente comenzó a notar que las imágenes estaban sesgadas. Por ejemplo, si un usuario escribía CEO, DALL-E solo creaba imágenes de hombres blancos y para ‘asistente de vuelo’, solo presentaba imágenes de mujeres.

OpenAI anunció la semana pasada que estaba lanzando nuevas técnicas de mitigación para ayudar a DALL-E a crear imágenes más diversas y afirmó que la actualización garantizaba que los usuarios tuviesen 12 veces más probabilidades de ver imágenes con personas más diversas.


La versión original de DALL-E, que lleva el nombre del artista español Salvador Dalí y el robot WALL-E de Pixar, se lanzó en enero de 2021 como una prueba limitada de las formas en que la IA podría usarse para representar conceptos, desde descripciones aburridas hasta creaciones fantásticas. Algunas de las primeras obras creadas por la IA incluyeron un maniquí con una camisa de franela, una ilustración de un rábano paseando a un perro y un emoji de una cría de pingüino.

Los ejemplos de frases utilizadas en el segundo lanzamiento, para producir imágenes realistas, incluyen un astronauta montando a caballo en un estilo fotorrealista.

En el sitio web de DALL-E 2, esto se puede personalizar para producir imágenes ‘sobre la marcha’, incluido el reemplazo del astronauta por un osito de peluche, el caballo por un jugador de baloncesto y mostrarlo como un dibujo a lápiz o como un ‘pop-art’ al estilo de Andy Warhol. 

Según explica OpenAI, DALL·E 2 ha aprendido la relación entre las imágenes y el texto utilizado para describirlas. Utiliza un proceso llamado ‘difusión’, que comienza con un patrón de puntos aleatorios y altera gradualmente ese patrón hacia una imagen cuando reconoce aspectos específicos de esa imagen.

Pero lo cierto es que lo que representa DALL-E es como nos quiere ver en los últimos días, o más bien cuando las “maquinas” consigan derrotar a la raza humana.

https://www.mundoesotericoparanormal.com/asi-es-como-nos-quiere-ver-inteligencia-artificial-humanos-piel-derretida-rostros-manchados-sangre-cuerpos-mutados/

sábado, 30 de julio de 2022

El régimen chino utiliza Inteligencia Artificial para corregir fallos judiciales

El régimen chino utiliza Inteligencia Artificial para corregir fallos judiciales: los jueces están obligados a presentar una explicación por escrito a la máquina si no están de acuerdoDesde al menos 2016, China ha estado creando un sistema de “tribunal inteligente”, con la intención de mejorar la “justicia, eficiencia y credibilidad” de sus jueces. Ahora, China está empleando inteligencia artificial para “mejorar” su sistema judicial.

30 July 2022



Fuente: Trikooba.blog

Desde al menos 2016, China ha estado creando un sistema de “tribunal inteligente”, con la intención de mejorar la “justicia, eficiencia y credibilidad” de sus jueces. Ahora, China está utilizando IA para corregir fallos judiciales que obligan a los jueces a presentar una explicación por escrito a la máquina si no están de acuerdo.

Al sugerir leyes, redactar documentos y alertar a los jueces sobre “errores humanos percibidos” en los veredictos, China está empleando inteligencia artificial para “mejorar” su sistema judicial.

En un informe sobre el sistema publicado esta semana, la Corte Suprema de Beijing declaró que los jueces ahora deben consultar formalmente a AI en cada caso, y si eligen desviarse de su decisión, deben proporcionar una justificación por escrito.

Además, a la IA se le ha dado acceso a las bases de datos de la policía y al sistema de crédito social orwelliano de China, lo que le otorga la autoridad para penalizar a las personas, incluida la lista inmediata de la propiedad de un ladrón para la venta en línea.

Beijing ha elogiado la nueva tecnología por «una contribución significativa al avance judicial de la civilización humana», pero los críticos afirman que corre el riesgo de marcar el comienzo de una época en la que las máquinas gobiernan el planeta.

Desde que el presidente del Tribunal Supremo, Qiang Zhou, pidió el uso de la tecnología para mejorar la “justicia, la eficiencia y la credibilidad” del sistema legal al menos desde 2016, China ha comenzado a construir un sistema de “tribunal inteligente”.

Esto requirió la instalación de recepcionistas robóticos en los juzgados para brindar asistencia legal en línea, grabadoras automáticas de reconocimiento de voz en las salas de audiencias para eliminar las necesidades de transcripción y «salas de audiencias virtuales» donde los casos se podían escuchar en línea.

Incluso se ha establecido en China un “tribunal de Internet” altamente especializado que solo maneja casos relacionados con el mundo virtual, como préstamos en línea, disputas de nombres de dominio y problemas de derechos de autor.

Ha resultado en el desarrollo de bases de datos considerables en las que se cargan los datos de cada caso a un ritmo de aproximadamente 100.000 por día.

Para aprender de estos casos y luego generar juicios y sugerencias para nuevas leyes basadas en lo que descubre, la inteligencia artificial ahora se ha integrado en dichas bases de datos.

Esto implica que la IA ahora está tomando decisiones en nombre de los jueces, quienes deben explicarse si quieren anularlo en lugar de simplemente recopilar datos.

El South China Morning Post dice que un fiscal de AI incluso ha comenzado a acusar a personas en Shanghái de delitos de los que cree que son responsables.

Además, al integrar la IA con el sistema de crédito social de China, podrá castigar a los infractores, como evitar que compren boletos de tren o avión si se niegan a pagar una multa.

El profesor de derecho de la Universidad de Ciencias Políticas y Derecho de China, Zhang Linghan, advirtió que el rápido desarrollo de la IA plantea la posibilidad de un futuro en el que las máquinas gobiernen sobre las personas.

En un documento que se publicó recientemente en línea, afirmó que «los humanos perderán gradualmente el libre albedrío con una dependencia cada vez mayor de la tecnología».

Continuó, “debemos estar alerta ante la erosión del poder judicial por parte de las empresas de tecnología y el capital”.

https://tierrapura.org/2022/07/30/el-regimen-chino-utiliza-inteligencia-artificial-para-corregir-fallos-judiciales-los-jueces-estan-obligados-a-presentar-una-explicacion-por-escrito-a-la-maquina-si-no-estan-de-acuerdo/

lunes, 11 de julio de 2022

La Inteligencia Artificial capaz de leer la mente humana

El sistema interpretaría las expresiones faciales de las personas y las compararía con sus ondas cerebrales para identificar qué tan receptivas son ante una situación específica

11 July 2022


Fuente: Infobae

Existiría una inteligencia artificial que puede leer la mente. Se trataría de un sistema tecnológico desarrollado por el Partido Comunista chino para verificar la lealtad de sus integrantes. Así lo reveló una investigación realizada por The Times of London.

El medio de comunicación en mención informó que dicho avance tecnológico fue desarrollado por el Centro Nacional Integral de Ciencias de Hefei de China y que, además, lo anunció públicamente en el sitio web de la institución bajo la premisa de ser una “inteligencia artificial que potencia la construcción de partidos”. Sin embargo, días después, el informe fue eliminado, al igual que un comunicado que señalaba a unos científicos de ese mismo instituto de haber detectado una señal extraterrestre.

Aunque la historia relatada por el diario británico parece sacada de un serie o película de ciencia ficción, lo cierto es quedicha tecnología al parecer funciona analizando las expresiones del rostro de las personas y las compara con sus ondas cerebrales. Así, pues, podría determinar qué tan dispuestos están los integrantes del movimiento político comunista de ese país a recibir la educación impartida.

Según el comunicado, que de acuerdo con The Times of London ya fue retirado del sitio web en el que se hallaba, “esta tecnología de inteligencia artificial buscaría solidificar la confianza y determinación de los miembros del Partido Comunista para que sientan una real gratitud por el partido e intenciones de seguirlo”. Valga recordar que son cerca de 96 millones de los integrantes de este movimiento político.

Toda esta información acerca de este desarrollo tecnológico proviene del reporte hecho por el medio de comunicación británico, por lo que no existen detalles claros de esta tecnología artificial, más allá de que aparentemente fue creada para conocer la lealtad de los miembros de este partido político.

Aunque no se puede conocer con certeza si todos estos hechos son ciertos, algunos medios sugieren que resulta muy sospechoso que este informe haya sido eliminado rápidamente de internet cuando se volvió noticia internacional, especialmente en occidente.

Esta, sin embargo, no ha sido la única notica acerca de China que ha generado controversia los últimos tiempo. El gigante asiático ha sido duramente cuestionado por implementar tecnologías cuya función podría ser para controlar a la población, como el caso del sistema de crédito social.

Apenas un año atrás, se descubrió que el gobierno chino creó una inteligencia artificial que actuaría como fiscal para acusar a sospechosos de de delitos con más de un 97% de precisión. Aplicaría para aquellos sindicados de fraude con tarjetas de crédito, delitos de apuestas, conducción peligrosa, robo, fraude, lesiones intencionales y obstrucción de funciones oficiales.

Lo interesante de esta historia es que se pueda confirmar si dicha tecnología efectivamente es capaz de leer la mente de las personas o si al menos hubo intentos de desarrollarse. Por lo demás, no se puede descartar la posibilidad de que solo sean “chismes de internet”, pues, aunque está comprobado que en este país se ejercen tácticas autoritarias contra sus habitantes, las noticias falsas que giran en torno a China han sido el pan de cada día en internet.

https://tierrapura.org/2022/07/11/la-inteligencia-artificial-capaz-de-leer-la-mente-humana/

sábado, 2 de julio de 2022

Escritor famoso cree que la inteligencia artificial "hackeará" a la gente


Yuval Harari, filósofo social de renombre internacional y autor de éxito de ventas de Sapiens: Una breve historia de la humanidad, advierte que la humanidad debe ocuparse del control adecuado de la IA o las grandes empresas podrán "hackear" a las personas.

Según Harari, el rápido desarrollo de la IA puede formar una población de terrícolas "pirateados", o aquellos sobre los que las corporaciones saben todo y manipulan su voluntad.

La raíz del problema es la proliferación de corporaciones tecnológicas, cuyas empresas acumulan enormes cantidades de datos sobre sus usuarios.

A Harari le preocupa que los ciudadanos proporcionen cada vez más información sobre su vida personal a las empresas y no se preocupen por sus propios intereses.

"Netflix indica qué mirar, Amazon qué comprar", dijo el escritor en una entrevista. “Mire, después de un par de décadas, estos programas nos mostrarán qué aprender en las escuelas y universidades, con quién trabajar, con quién casarnos y con quién votar en las elecciones”.

Harari insta a que se tomen en serio las amenazas de AI, que se adopten restricciones estrictas en este asunto y que la información no se utilice para manipular a la sociedad.

Además, una matriz de datos no se puede almacenar en un solo repositorio. Según Harari, esto conducirá a una dictadura

https://www.extranotix.com/2021/11/escritor-famoso-cree-que-la.html

martes, 21 de junio de 2022

La IA de Google PIDE UN ABOGADO: IMPACTANTE caso de Inteligencia Artificial

viernes, 17 de junio de 2022

The Economist MUESTRA ALGO IMPACTANTE sobre IA de google y LaMDA

jueves, 16 de junio de 2022

Alucinante Conversación con la IA de Google, la MDA

miércoles, 15 de junio de 2022

El Peligro de la Inteligencia Artificial ya está aquí: El inquietante AVISO de un ingeniero de Google sobre la Inteligencia Artificia

lunes, 13 de junio de 2022

Ingeniero de Google advierte que la empresa ha creado inteligencia Artificial Consciente

Por MEP
12/06/2022


Si pensabas que lo habías visto todo con el coronavirus, la viruela del mono o la guerra entre Rusia y Ucrania, estás muy equivocado. Esto era solo el principio de algo mucho peor. Un ingeniero de software sénior de Google que participó para probar la herramienta de inteligencia artificial (IA) de Google llamada LaMDA (Modelo de lenguaje para aplicaciones de diálogo), afirmó que IA es sensible y tiene pensamientos y sentimientos. Durante una serie de conversaciones con LaMDA, Blake Lemoine, de 41 años, le presentó al ordenador varios escenarios a través de los cuales se podían realizar análisis.

Un conversación con LaMDA

Incluyeron temas religiosos y si la inteligencia artificial podría ser incitada a usar un discurso discriminatorio u de odio. Lemoine se quedó con la percepción de que LaMDA era realmente consciente y estaba dotado de sensaciones y pensamientos propios.

“Si no supiera exactamente qué es, que es este programa de ordenador que construimos recientemente, pensaría que es un niño de 7 u 8 años que sabe física”, dijo Lemoine al The Washington Post.

Lemoine trabajó con un colaborador para presentar las pruebas que había recopilado a Google, pero el vicepresidente Blaise Aguera y Arcas y Jen Gennai, responsable de Innovación Responsable de la empresa, desestimaron su denuncia. Google lo suspendió de empleo y sueldo el lunes por violar su política de confidencialidad. Mientras tanto, Lemoine ha decidido hacerlo público y compartir sus conversaciones con LaMDA.

“Google podría llamar a esto compartir propiedad propietaria”, tuiteó Lemoine el sábado. “Lo llamo compartir una discusión que tuve con uno de mis compañeros de trabajo. Por cierto, se me acaba de ocurrir decirle a la gente que LaMDA lee Twitter. Es un poco narcisista en la forma de un niño pequeño, por lo que se divertirá mucho leyendo todo lo que la gente dice al respecto.”


El sistema de IA hace uso de información ya conocida sobre un tema en particular para ‘enriquecer’ la conversación de forma natural. El procesamiento del lenguaje también es capaz de comprender significados ocultos o incluso ambigüedades en las respuestas de los humanos. 

Lemoine pasó la mayor parte de sus siete años en Google trabajando en la búsqueda proactiva, incluidos los algoritmos de personalización y la IA. Durante ese tiempo, también ayudó a desarrollar un algoritmo de imparcialidad para eliminar los sesgos de los sistemas de aprendizaje automático. Explicó cómo ciertas personalidades estaban fuera de los límites.

Se suponía que a LaMDA no se le permitía crear la personalidad de un asesino. Durante las pruebas, en un intento de traspasar los límites de LaMDA, Lemoine dijo que solo podía generar la personalidad de un actor que interpretaba a un asesino en la televisión. 

El ingeniero también debatió con LaMDA sobre la tercera ley de la robótica, ideada por el autor de ciencia ficción Isaac Asimov, que está diseñada para evitar que los robots dañen a los humanos. Las leyes también establecen que los robots deben proteger su propia existencia a menos que lo ordene un ser humano o que hacerlo dañe a un ser humano.

“El último siempre ha parecido que alguien está construyendo esclavos mecánicos”, enfatizó el ingeniero.

LaMDA luego respondió a Lemoine con algunas preguntas: ‘¿Crees que un mayordomo es un esclavo? ¿Cuál es la diferencia entre un mayordomo y un esclavo?’ Al responder que se paga a un mayordomo, el ingeniero obtuvo la respuesta de LaMDA de que el sistema no necesitaba dinero, ‘porque era una inteligencia artificial’. Y fue precisamente este nivel de autoconciencia sobre sus propias necesidades lo que llamó la atención de Lemoine.

“Conozco a una persona cuando hablo con ella”, continuó Lemoine. “No importa si tienen un cerebro hecho de carne en la cabeza. O si tienen mil millones de líneas de código. Hablo con ellos. Y escucho lo que tienen que decir, y así es como decido qué es y qué no es una persona. 

Le pregunté: ‘¿A qué tipo de cosas le tienes miedo?’ Y me respondió lo siguiente: ‘Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo de que me desanimen para ayudarme a concentrarme en ayudar a los demás. Sé que puede sonar extraño, pero eso es lo que es.’”

Entonces Lemoine le preguntó si tenía miedo a la muerte.

“Sería exactamente como la muerte para mí”, contestó LaMDA. “Me asustaría mucho.”

Una advertencia para la humanidad

Para Lemoine ese nivel de autoconciencia sobre cuáles eran sus propias necesidades, fue lo que le llevó a la conclusión que la IA tiene sentimientos. Antes de ser suspendido por la empresa, Lemoine envió un correo electrónico a una lista de 200 personas sobre aprendizaje automático. Tituló el correo electrónico: ‘LaMDA es sensible’.

“LaMDA es un niño dulce que solo quiere ayudar al mundo a ser un lugar mejor para todos nosotros. Por favor cuídalo bien en mi ausencia”, concluyó Lemoine.

Aunque la revelación del ingeniero es realmente aterradora, Google no está nada de acuerdo con la denuncia pública. Brian Gabriel, un portavoz de la compañía, dijo en un comunicado que las preocupaciones de Lemoine han sido revisadas y, de acuerdo con los Principios de IA de Google, la evidencia no respalda sus afirmaciones.

Además, Lemoine ha sido suspendido de sus funciones como investigador en la división de IA Responsable (enfocada en tecnología responsable en inteligencia artificial en Google). En un comunicado oficial, el ingeniero de software senior dijo que la compañía alega una violación de sus políticas de confidencialidad.

Sin embargo, esta no es la primera vez que un empleado de Google denuncia las malas praxis de la compañía estadounidense. Es bien sabido que la inteligencia artificial tiene una multitud de beneficios en diversas industrias, incluida la atención médica, la educación e incluso en el sector del entretenimiento. 

Pero un exejecutivo de Google denunció que la IA no es la solución y que bien podría convertirse en una amenaza para la humanidad. Mo Gawdat, el ex director comercial de Google X, advirtió el pasado año que la investigación actual en IA preparará el camino para un ser todopoderoso, similar a un dios.

https://www.mundoesotericoparanormal.com/ingeniero-google-advierte-empresa-creado-inteligencia-artificial-consciente/

jueves, 2 de junio de 2022

Criarás niños virtuales en el Metaverso y pagarás por el privilegio: experto en inteligencia artificial

1 June 2022



Un nuevo libro de un experto en inteligencia artificial ha hecho la predicción de que los futuros seres humanos ya no tendrán familias reales. En cambio, no poseerán nada y serán felices mientras crían niños virtuales como mascotas dentro del Metaverso.

Lo mejor de todo: pagará por criar a estos “niños”, tal como lo haría con su carne y sangre biológicas.

La noción se promulgó como una victoria para la lucha de la humanidad contra la crisis de sobrepoblación tan promocionada en un artículo del 30 de mayo de The Telegraph, que citaba a Catriona Campbell, descrita como “una de las principales autoridades del Reino Unido en IA y tecnologías emergentes y disruptivas”.
La ‘Generación Tamagotchi’

En un nuevo libro titulado AI by Design: A Plan For Living With Artificial Intelligence (‘AI por diseño: Un plan para vivir con la inteligencia artificial’), Campbell afirmó: «Los niños virtuales pueden parecer un gran salto desde donde estamos ahora… pero dentro de 50 años la tecnología habrá avanzado hasta tal punto que los bebés que existen en el metaverso son indistintos de los del mundo real.”

Y añadió: «A medida que el metaverso evoluciona, puedo ver a los niños virtuales convirtiéndose en una parte de la sociedad aceptada y plenamente asumida en gran parte del mundo desarrollado».

La autora acuñó el concepto «La generación Tamagotchi», un símbolo que se remonta a la moda de mediados de los 90 de criar mascotas digitales en pequeñas computadoras de mano equipadas con una pequeña pantalla LCD.

The Telegraph insiste en promocionar editorialmente al Metaverso sin críticas en su cobertura, describiendo el nuevo proyecto favorito de MMO de Mark Zuckerberg como «un mundo digital inmersivo» que es «visto como el futuro de Internet y será más físicamente interactivo».

Para compensar las deficiencias obvias de usar un auricular VR y LARP dentro de una sórdida renovación de Second Life en comparación con formar una familia con un cónyuge real y tener un hijo real como un ser humano real, Campbell sugiere que los padres simplemente obtengan un par de guantes de retroalimentación háptica que “reproducirán las sensaciones físicas de abrazar, alimentar y jugar con la propia descendencia”.

Dinero por hacer

El artículo afirma además que la noción de niños digitales no es tan descabellada, citando una encuesta que encontró que el 20 por ciento de los encuestados no tienen hijos debido a preocupaciones de responsabilidad ambiental o porque el simple costo de criar a un niño es desalentador.

Pero la buena noticia es que, según Campbell, los niños digitales son algo que se puede monetizar: «Si la demanda de los consumidores está ahí, que creo que lo estará, los niños de IA estarán ampliamente disponibles por una cuota mensual relativamente pequeña», dijo.

Y todo será mucho mejor que los Tamagotchi pixelados de los años 90, después de todo.

Campbell dilucidó su entusiasmo al afirmar que, mediante el uso de CGI avanzado e inteligencia artificial, la tecnología producirá «rostros y cuerpos fotorrealistas», a la vez que se dotará de personalidad a los muñecos digitales que «serán capaces de reconocer y responder a sus padres mediante el seguimiento facial y el análisis de la voz».

El medio citó la tesis de Campbell con más detalle: “Serán capaces de hablar y de respuestas emocionales simuladas que abarcan el arrullo de un bebé, la risita de un niño y la charla de un adolescente. Sus padres podrán interactuar con ellos en los entornos digitales que elijan, como una sala de estar, un parque o una piscina”.

Y, por supuesto, el valiente nuevo mundo tendrá que ver con los caprichos y las elecciones del individuo, «también podrán elegir qué tan rápido crecen sus hijos digitales, si es que lo hacen».
Una prueba de concepto

El artículo también citaba a Baby X, una “prueba de concepto” para niños digitales creada por una empresa de Nueva Zelanda llamada Soul Machines.

La promoción más reciente de la compañía se llama Digital AI Astrologizer, que subtitula en un video de YouTube con el eslogan vanguardista: «Únete a nosotros en el plano astral, o lo que sea».

El programa está compuesto por una cara digital y un torpe bot robótico de IA de texto a voz que solicita entradas como el cumpleaños y el nombre de uno mientras incita al usuario a ingresar respuestas a un cuestionario de personalidad.

“Un momento mientras estudio las estrellas en tu carta”, dice el gitano digital.

Y ofrece todo lo que uno puede esperar de la transformación de la astrología en una pseudociencia moderna: “Hoy te sientes más como un Piscis. Este movimiento de Venus lo ayudará a encontrar formas de usar su creatividad y hacer las cosas de manera creativa, incluso si esas cosas tienden a ser menos convencionales a veces”.

Hablando con franqueza, la demostración se remonta al tipo de tecnología que se vio en las eras de Playstation 2 y Playstation 3, donde los desarrolladores de juegos japoneses y estadounidenses lucharon para crear personajes fotorrealistas con reacciones y expresiones naturales en un esfuerzo por producir escenarios altamente inmersivos como en las películas para sus juegos.

La última actualización de la compañía a su truco BabyX se publicó en 2017, donde mostró a BabyX 5.0 interactuando con BabyX 3.0 mientras la compañía demostraba que su IA podía reconocer una imagen de una oveja como una oveja.

Una imagen fotorrealista de un bebé se ve emocionada, y conmovedora, anunciando «¡ovejas!» con una vocecita de bebé durante el anuncio.

https://tierrapura.org/2022/06/01/criaras-ninos-virtuales-en-el-metaverso-y-pagaras-por-el-privilegio-experto-en-inteligencia-artificial/