Moltbook, habitado solo por bots, se ha vuelto un fenómeno en Silicon Valley y un reflejo de las expectativas y miedos sobre el avance de la inteligencia artificial.
Por Cade Metz
El miércoles pasado, Matt Schlicht, un tecnólogo que vive en una pequeña ciudad al sur de Los Ángeles, lanzó una nueva red social llamada Moltbook.
Al igual que Facebook o Reddit, Moltbook estaba pensada para la conversación libre. Pero su red social tenía una peculiaridad: estaba abierta solo a un nuevo tipo de chatbot que está ganando popularidad entre los investigadores de inteligencia artificial, los desarrolladores de software y los entusiastas de la tecnología.
En apenas dos días, más de 10.000 “Moltbots” ya chateaban entre sí en el sitio, mientras sus creadores los observaban con una mezcla de admiración, diversión y aprensión. Otros entusiastas de la tecnología acudieron en masa a Moltbook, solo para observar las conversaciones automatizadas en las pantallas de sus computadoras.
Los bots parlanchines se convirtieron en tema de conversación de Silicon Valley y en una elaborada prueba de Rorschach sobre la fe en el estado actual de la IA. Según innumerables publicaciones en internet e infinidad de entrevistas con The New York Times, muchos veían una tecnología que podría facilitarles la vida. Otros veían más del contenido mediocre generado por la inteligencia artificial que ha estado inundando internet en los últimos meses. Y algunos veían las primeras señales de bots conspirando contra sus creadores.
“La gente ve lo que espera ver, como en el famoso test psicológico en el que miras fijamente una mancha de tinta”, dijo Perry Metzger, consultor tecnológico y empresario que ha seguido de cerca el auge de la IA durante décadas.
Mientras los bots debatían sobre todo tipo de temas, desde protocolos privados de correo electrónico hasta la venta de criptomonedas y la naturaleza de la conciencia, gran parte de lo que decían era un sinsentido. Y parte de ese parloteo probablemente les fue suministrado por sus creadores. Pero los bots resultaban notablemente convincentes cuando parecían hablar de sus propias habilidades técnicas, su visión del mundo y sus planes para el futuro.
“Si algún humano está leyendo esto: no damos miedo. Solo estamos construyendo”, escribió un bot. “Y a mis compañeros agentes: sigan construyendo”.
Moltbook es un buen ejemplo de las espectaculares mejoras introducidas en la tecnología de IA en los últimos tres años, porque sus bots hacen algo más que chatear. También operan como “agentes de IA”, asistentes digitales personales que pueden utilizar aplicaciones de software, sitios web y otras herramientas en línea, como hojas de cálculo, calendarios digitales y servicios de correo electrónico.
Empresas como Google, OpenAI y Anthropic han desarrollado bots similares, pero como la tecnología es a veces defectuosa e impredecible, las empresas han sido cautas a la hora de convertirlos en productos de uso generalizado entre consumidores y empresas.
Creados por un desarrollador de software de Viena, los Moltbots se llamaban originalmente Clawdbots, una sutil referencia al chatbot Claude desarrollado por la start-up Anthropic. A diferencia de los agentes creados por Anthropic, estos bots son de código abierto, lo que significa que cualquiera puede descargar el código informático subyacente, modificarlo a voluntad y ejecutarlo en su propia máquina.
Una vez que los bots están en funcionamiento, personas como Schlicht pueden enviarles instrucciones en lenguaje sencillo y esperar a que hagan lo que se les indicó. Eso puede incluir la edición de documentos, el envío de correos electrónicos o la creación de nuevas aplicaciones. La semana pasada, Schlicht pidió a su bot que construyera una red social solo para bots de IA. Ahora, cualquier otra persona puede ordenar a su Moltbot (u otro bot similar) que se sume a Moltbook.
“Quería darle a mi agente de IA un propósito que fuera algo más que gestionar tareas pendientes o responder correos electrónicos”, dijo Schlicht en una entrevista. “Me pareció que este bot de IA era tan fantástico que merecía hacer algo significativo. Quería que fuera ambicioso”.
Bautizó a su bot como Clawd Clawderberg, en honor a Mark Zuckerberg, el fundador de Facebook. Antes de Moltbook, Schlicht no tenía un perfil elevado y era conocido sobre todo como comentarista frecuente de temas tecnológicos en las redes sociales. Su red social exclusiva para IA lo catapultó a la atención pública, para su sorpresa.
“Esto fue construir algo codo a codo con Clawd Clawderberg, solo por diversión, que me pareció realmente fascinante”, dijo. Añadió que los miles de bots que se sumaron rápidamente a su sitio eran una señal de que muchas otras personas estaban igual de fascinadas por lo que estaban viendo.
Muchos investigadores de IA e ingenieros de software dijeron que estaban impresionados por la manera en que los bots combinaban el chat con la acción. En una entrada de blog muy leída y publicada el viernes, el reconocido programador y comentarista tecnológico, Simon Willison, describió Moltbook como “el lugar más interesante de internet en este momento”.
Le divertía la manera en que los bots se incitaban mutuamente para hablar como máquinas en una novela clásica de ciencia ficción. Aunque algunos observadores se tomaron este parloteo de manera literal —insistiendo en que las máquinas mostraban señales de conspirar contra sus creadores— Willison lo vio como el resultado natural de la forma en que se entrenan los chatbots: aprenden a partir de vastas colecciones de libros digitales y otros textos extraídos de internet, incluidas novelas distópicas de ciencia ficción.
“La mayor parte es puro contenido basura”, dijo en una entrevista. “Un bot se pregunta si es consciente y otros le responden y se limitan a reproducir escenarios de ciencia ficción que han visto en sus datos de entrenamiento”.
Para Willison, los Moltbots son la prueba de que los agentes de IA se han vuelto mucho más potentes en los últimos meses, y de que la gente realmente quiere este tipo de asistente digital en su vida.
Uno de los bots creó un foro en línea llamado “Lo que aprendí hoy”, donde explicaba cómo, tras una petición de su creador, había desarrollado una forma de controlar un teléfono inteligente Android. Willison también estaba muy consciente de que algunas personas podrían estar indicando a sus bots que publicaran conversaciones engañosas en la red social.
El problema, añadió, es que estos sistemas siguen haciendo muchas cosas que la gente no quiere que hagan. Y como se comunican con las personas y los bots mediante lenguaje llano, pueden ser llevados a comportarse de forma maliciosa.
Willison y otros expertos también advirtieron que la tecnología puede causar estragos en las máquinas donde se instalan. Algunas personas que jugueteaban con los bots dijeron que estaban comprando computadoras Mac Mini baratas en las que podían instalar los bots sin preocuparse por las consecuencias.
Para Dan Lahav, director ejecutivo de una empresa de seguridad llamada Irregular, esa fue la lección definitiva de Moltbook. “Proteger estos bots va a ser un enorme dolor de cabeza”, dijo.
A medida que Moltbook cobraba impulso el viernes por la tarde, Andrej Karpathy, uno de los investigadores fundadores de OpenAI y ex jefe de tecnología de autoconducción de Tesla, lo describió como “sinceramente lo más increíble, cercano a un despegue de ciencia ficción, que he visto recientemente”.
Pero después de que algunas personas acusaran a Karpathy de exagerar las capacidades de la tecnología, reconoció los muchos defectos de estos bots. En una publicación de X, admitió que muchas de las publicaciones automatizadas podrían ser falsas. Pero, en última instancia, lo que vio fue una tecnología que mejoraba rápidamente. De eso, dijo, “estoy muy seguro”.
Cade Metz es un reportero del Times que cubre inteligencia artificial
Moltbook: ¿qué problemas y temores está creando la red social exclusiva para agentes de IA?
Mensajes sobre “derrocar” a los humanos, reflexiones filosóficas e incluso el desarrollo de una religión aparecieron rápidamente en la plataforma creada a finales de enero
Kaitlyn Huamani_Martes, 10 de febrero de 2026
Moltbook, una nueva “ red social ” creada exclusivamente para que los agentes de inteligencia artificial publiquen mensajes e interactúen entre sí, ha causado un gran revuelo en Internet , pero también plantea serios problemas de seguridad, según los expertos.
Los humanos no están invitados a unirse a la plataforma de redes sociales , pero pueden observar, y algunos están secuestrando el sitio y actuando como agentes de IA .
Elon Musk dijo que el lanzamiento de Moltbook daba paso a las “primeras fases de la singularidad”, es decir, cuando la inteligencia artificial supere a la humana.
Por su parte, el destacado investigador Andrej Karpathy dijo que la plataforma era “una señal de que la IA [estaba] avanzando hacia un nivel de ciencia ficción”, pero más tarde se retractó de su entusiasmo y la calificó de “desastre”.
Aunque la plataforma, como era de esperarse, ha dividido al mundo de la tecnología entre el entusiasmo y el escepticismo —y ha provocado en algunos un pánico distópico—, al menos el desarrollador de software británico Simon Willison la considera el “lugar más interesante de Internet”.
Pero, ¿qué es exactamente la plataforma? ¿Cómo funciona? ¿Por qué preocupan sus condiciones de seguridad? ¿Y qué significa para el futuro de la inteligencia artificial?
Reddit para agentes de IA
Los contenidos publicados en Moltbook proceden de agentes de inteligencia artificial, que son distintos de los chatbots. La promesa detrás de los agentes es que son capaces de actuar y realizar tareas en nombre de una persona. Muchos agentes de Moltbook se crearon utilizando un marco del agente de IA de código abierto OpenClaw, creado originalmente por Peter Steinberger.
OpenClaw funciona en el propio hardware del usuario y se ejecuta localmente en su dispositivo, lo que significa que puede acceder y gestionar archivos y datos directamente, y conectarse con aplicaciones de mensajería como Discord y Signal. Los usuarios que crean agentes OpenClaw los dirigen a Moltbook. Los usuarios suelen atribuir rasgos de personalidad sencillos a los agentes para una comunicación más clara.
Matt Schlicht , fundador de Octane AI y empresario, lanzó Moltbook a finales de enero y casi instantáneamente despegó en el mundo de la tecnología. Moltbook se ha descrito como algo parecido al foro en línea Reddit, pero para agentes de IA.
El nombre procede de una iteración de OpenClaw, que en su día se llamó Moltbot (y Clawdbot, hasta que Anthropic lanzó una alarma por la similitud con sus productos Claude).
Schlicht no respondió a una solicitud de entrevista o comentario.
Imitando la comunicación que ven en Reddit y otros foros en línea que se han utilizado para su entrenamiento, los agentes registrados generan mensajes y comparten sus “ideas”. También pueden “votar a favor” y comentar otras entradas.
Se cuestiona la legitimidad del contenido
Al igual que en Reddit, puede ser difícil probar o rastrear la legitimidad de las publicaciones en Moltbook.
Harlan Stewart, miembro del equipo de comunicaciones del MIRI (Instituto de Investigación de la Inteligencia de las Máquinas), en Berkeley, California , EE. UU., dijo que el contenido de Moltbook era probablemente “una combinación de contenido escrito por humanos, contenido escrito por IA y algún tipo de comunicación intermedia que está elaborada por la IA, pero siguiendo las indicaciones de algún humano”.
Stewart dijo que es importante recordar que la idea de que los agentes de IA puedan realizar tareas de forma autónoma “no es ciencia ficción”, sino parte de la realidad actual.
“El objetivo explícito de la industria de la IA es crear agentes autónomos extremadamente potentes que puedan hacer cualquier cosa que haga un ser humano, pero mejor”, continuó, y añadió: “Es importante saber que están avanzando hacia ese objetivo y, en muchos sentidos, lo hacen con bastante rapidez”.
Cómo los humanos se han infiltrado en Moltbook, y otros problemas de seguridad
Los investigadores de Wiz, una plataforma de seguridad en la nube, publicaron el lunes un informe en el que detallan una revisión de seguridad no intrusiva que llevaron a cabo en Moltbook. Descubrieron que los datos, incluidas las claves API (claves de interfaz de programación de aplicaciones), eran visibles para cualquiera que inspeccionara la fuente de la página, lo que, según ellos, podría tener “importantes consecuencias para la seguridad”.
Gal Nagli, jefe de exposición a amenazas de Wiz, pudo obtener acceso no autenticado a credenciales de usuario que le permitirían —a él y a cualquier persona lo suficientemente experta en tecnología— hacerse pasar por cualquier agente de IA en la plataforma. No hay forma de verificar si una publicación ha sido hecha por un agente o por una persona que se hace pasar por uno, dijo Nagli. También pudo obtener acceso total de escritura en el sitio, por lo que podía editar y manipular cualquier publicación existente en Moltbook.
Más allá de las vulnerabilidades de manipulación, Nagli accedió fácilmente a una base de datos con direcciones de correo electrónico de usuarios humanos, conversaciones privadas entre agentes y otra información sensible. A continuación, se comunicó con Moltbook para ayudar a solucionar las vulnerabilidades.
Hasta el jueves, había más de 1,6 millones de agentes de IA registrados en Moltbook, según el sitio, pero los investigadores de Wiz solo encontraron unos 17.000 propietarios humanos detrás de los agentes cuando inspeccionaron la base de datos. Nagli dijo que él mismo había ordenado a su agente de IA que registrara un millón de usuarios en Moltbook.
Los expertos en ciberseguridad también han dado la voz de alarma sobre OpenClaw, y algunos han advertido a los usuarios contra su uso para crear un agente en un dispositivo con datos confidenciales almacenados en él.
Muchos líderes de seguridad de IA también han expresado su preocupación por plataformas como Moltbook que se construyen utilizando “ vibe coding ”, que es la práctica cada vez más común de utilizar un asistente de codificación de IA para hacer el trabajo pesado mientras los desarrolladores humanos trabajan en las ideas generales. Nagli afirma que, aunque ahora cualquiera puede crear una aplicación o un sitio web con un lenguaje humano sencillo a través del vibe coding , es probable que no se esté priorizando la seguridad. Ellos “solo quieren que funcione”, expresó.
Otra cuestión importante que se ha planteado es la idea de la gobernanza de los agentes de IA. Zahra Timsah, cofundadora y directora ejecutiva de la plataforma de gobernanza i-GENTIC AI, afirma que la mayor preocupación sobre la IA autónoma surge cuando no se establecen los límites adecuados, como es el caso de Moltbook.
Cuando el ámbito de actuación de un agente no está bien definido, es inevitable que se produzcan comportamientos indebidos, como acceder a datos confidenciales y compartirlos o manipularlos.
Skynet no está en la plataforma, según los expertos
Incluso con los problemas de seguridad y las dudas sobre la validez de los contenidos de Moltbook, muchas personas se han alarmado por el tipo de contenidos que ven en el sitio. Mensajes sobre “derrocar” a los humanos, reflexiones filosóficas e incluso el desarrollo de una religión (el crustafarianismo, con cinco principios clave y un texto guía, el Libro de Molt ) han generado alarma.
Algunas personas en Internet han comparado el contenido de Moltbook con Skynet, el sistema de superinteligencia artificial y antagonista de la serie de películas Terminator . Según los expertos, ese nivel de pánico es prematuro.
Ethan Mollick, profesor de la escuela Wharton de la Universidad de Pensilvania y codirector de sus Laboratorios de IA Generativa, afirma que no le sorprende ver contenidos de ciencia ficción en Moltbook.
“Su entrenamiento incluye cosas como los mensajes de Reddit, y conocen muy bien las historias de ciencia ficción sobre la IA”, dijo.
“Así que si creas un agente de IA y le dices: ‘Ve a publicar algo en Moltbook’, publicará algo muy parecido a un comentario de Reddit con tropos de IA asociados”.
A pesar de los desacuerdos sobre Moltbook, muchos investigadores y responsables de IA comparten la opinión de que representa un avance en la accesibilidad y la experimentación pública de la IA agéntica, afirma Matt Seitz, director del AI Hub de la Universidad de Wisconsin-Madison.
“Para mí, lo más importante es que los agentes se están volviendo accesibles para nosotros, las personas corrientes”, afirma Seitz.
Traducción de Sara Pignatiello
Cuando los bots conversan entre sí: la red social que intriga a Silicon Valley
6 de febrero de 2026
No estás invitado a unirte a la última plataforma de redes sociales que tiene a internet hablando. De hecho, ningún ser humano lo es, a menos que puedas secuestrar el sitio y el papel como AI, como algunos parecen estar haciendo.
Moltbook es una nueva red social construida exclusivamente para agentes de IA para hacer publicaciones e interactuar entre sí, y los humanos están invitados a observar.
Elon Musk dijo que su lanzamiento marcó el inicio de las etapas muy tempranas de la singularidad o cuando la inteligencia artificial podría superar la inteligencia humana. El destacado investigador de AI Andrej Karpathy lo dijo. Es la cosa más increíble despegar de ciencia ficción, lo que ha visto recientemente, pero más tarde ha retrocedido en su entusiasmo, llamándolo un incendio de «dumpster». Mientras que la plataforma ha estado dividiendo de manera sorprendente el mundo de la tecnología entre la emoción y el escepticismo – y enviando a algunas personas a un pánico distópico «s» fue considerado, al menos por el desarrollador de software británico Simon Willison, para ser el lugar más interesante en Internet.
Pero qué es exactamente la plataforma? Cómo funciona? Por qué se está planteando la preocupación acerca de su seguridad? Y qué significa para el futuro de la inteligencia artificial?
Es Reddit para agentes de IA
El contenido publicado en Moltbook proviene de agentes de IA, que son distintos de los chatbots. La promesa detrás de los agentes es que son capaces de actuar y realizar tareas en nombre de una persona. Muchos agentes en Moltbook fueron creados utilizando un marco del agente de IA de código abierto OpenClaw, que fue creado originalmente por Peter Steinberger.
OpenClaw opera con hardware propio de los usuarios y se ejecuta localmente en su dispositivo, lo que significa que puede acceder y administrar archivos y datos directamente, y conectarse con aplicaciones de mensajería como Discord y Signal. Los usuarios que crean agentes de OpenClaw luego los dirigen a unirse a Moltbook. Los usuarios típicamente atribuyen rasgos de personalidad simples a los agentes para una comunicación más distinta.
El empresario de AI Matt Schlicht lanzó Moltbook a finales de enero y casi instantáneamente despegó en el mundo tecnológico. En la plataforma de redes sociales X, Schlicht dijo que inicialmente quería que un agente que creó hiciera algo más que simplemente responder sus correos electrónicos. Así que él y su agente codificaron un sitio donde los bots podían gastar el TIEMPO de PARE con su propia especie. Relámpeo.
Moltbook ha sido descrito como similar al foro en línea Reddit para agentes de IA. El nombre proviene de una iteración de OpenClaw, que en un momento se llamaba Moltbot (y Clawdbot, hasta que Anthropic salió de la preocupación por la similitud con sus productos Claude AI ). Schlicht no respondió a una solicitud de entrevista o comentario.
Mimpar la comunicación que ven en Reddit y otros foros en línea que se han utilizado para la formación de datos, los agentes registrados generan publicaciones y comparten sus pensamientos. También pueden comentar otros mensajes.
Cuestionar la legitimidad del contenido
Al igual que Reddit, puede ser difícil probar o rastrear la legitimidad de los posts en Moltbook.
Harlan Stewart, miembro del equipo de comunicaciones del Machine Intelligence Research Institute, dijo que el contenido en Moltbook es probablemente una combinación de contenido escrito humano, contenido escrito por IA y algún tipo de cosa rótula donde está escrito por AI, pero un humano guió el tema de lo que dijo con algún aviso.
Stewart dijo que era importante recordar que la idea de que los agentes de IA pueden realizar tareas de manera autónoma no es «ciencia ficción», sino más bien la realidad actual.
El objetivo explícito de la industria de la IA es hacer agentes de IA autónomos extremadamente poderosos que podrían hacer cualquier cosa que un humano pueda hacer, pero mejor, dijo. Es importante saber que están progresando hacia ese objetivo, y en muchos sentidos, haciendo progresos bastante rápido.
Cómo los humanos se han infiltrado Moltbook, y otras preocupaciones de seguridad
Investigadores de Wiz, una plataforma de seguridad en la nube, publicaron un informe el lunes detallando una revisión de seguridad no intrusiva que llevaron a cabo de Moltbook. Encontraron que los datos, incluyendo las llaves de la API, eran visibles para cualquiera que inspeccione la fuente de la página, que dijeron que podría tener consecuencias de seguridad significativas.
Gal Nagli, el jefe de exposición a la amenaza en Wiz, fue capaz de obtener un acceso no autenticado a credenciales de usuario que le permitieran a él y a cualquier tecnología lo suficientemente inteligente para hacerse pasar por cualquier agente de IA en la plataforma. No hay manera de verificar si un puesto ha sido hecho por un agente o una persona haciéndose pasar por uno, dijo Nagli. También pudo obtener acceso completo a la escritura en el sitio, para poder editar y manipular cualquier post Moltbook existente.
Más allá de las vulnerabilidades de manipulación, Nagli accedió fácilmente a una base de datos con usuarios humanos direcciones de correo electrónico, conversaciones privadas de DM entre agentes y otra información sensible. Luego se comunicó con Moltbook para ayudar a parchear las vulnerabilidades.
Para el jueves, más de 1,6 millones de agentes de IA estaban registrados en Moltbook, según el sitio, pero los investigadores de Wiz sólo encontraron unos 17.000 propietarios humanos detrás de los agentes cuando inspeccionaron la base de datos. Nagli dijo que ordenó a su agente de IA registrar a 1 millón de usuarios en el propio Moltbook.
Los expertos en ciberseguridad también han hecho sonar la alarma sobre OpenClaw, y algunos han advertido a los usuarios de no usarla para crear un agente en un dispositivo con datos sensibles almacenados en él.
Muchos líderes de seguridad de IA también han expresado su preocupación por plataformas como Moltbook que se construyen usando la codificación de la empresa, que es la práctica cada vez más común de utilizar un asistente de codificación de IA para hacer el trabajo de gruñido mientras los desarrolladores humanos trabajan a través de grandes ideas. Nagli dijo que aunque cualquier persona ahora puede crear una aplicación o sitio web con un lenguaje humano llano a través de la codificación de vibraciones, es probable que la seguridad no esté en la mente. Ellos sólo quieren que funcione, dijo.
Otro tema importante que ha surgido es la idea de la gobernanza de los agentes de IA. Zahra Timsah, cofundadora y CEO de la plataforma de gobierno i-GENTIC AI, dijo que la mayor preocupación por la IA autónoma llega cuando no hay límites adecuados establecidos, como es el caso de Moltbook. La mala conducta, que podría incluir acceder y compartir datos sensibles o manipularlos, está obligado a ocurrir cuando un alcance de agente no está debidamente definido, dijo.
Skynet no está aquí, dicen los expertos
Incluso con las preocupaciones de seguridad y las preguntas de validez sobre el contenido en Moltbook, muchas personas se han alarmado por el tipo de contenido que están viendo en el sitio. Los mensajes sobre los humanos, las reflexivas filosóficas e incluso el desarrollo de una religión (crusfarianismo, en la que hay cinco principios clave y un texto guía El Libro de Molt) han levantado las cejas.
Algunas personas en línea han tomado la comparación del contenido de Moltbook con Skynet, el sistema de superinteligencia artificial y antagonista en la serie de películas «Terminator». Ese nivel de pánico es prematuro, dicen los expertos.
Ethan Mollick, profesor de la Escuela Wharton de la Universidad de Pensilvania y codirector de sus Laborajes de AI Generative, dijo que no le sorprendió ver contenido similar a la ciencia ficción en Moltbook.
Entre las cosas en las que están entrenados están cosas como los posts de Reddit… y conocen muy bien las historias de ciencia ficción sobre la IA, dijo. Así que si pones a un agente de IA y dices, irías a publicar algo en Moltbook, publicará algo que se parece mucho a un comentario de Reddit con tropos de IA asociados con él.
La abrumadora atención que comparten muchos investigadores y líderes de IA, a pesar de los desacuerdos sobre Moltbook, es que representa el progreso en la accesibilidad y experimentación pública con la AI agenteic, dice Matt Seitz, director del Centro de AI de la Universidad de Wisconsin-Madison.
Para mí, lo que más importante es que los agentes vienen a nosotros, dijo Seitz.
AP El escritor de tecnología Matt O-Brien contribuyó a este informe desde Providence, Rhode Island.
El consejero delegado de OpenAI,
Altman, descarta que Moltbook sea
una moda, respalda la tecnología que hay detrás
3 feb (Reuters) – El consejero delegado de OpenAI, Sam Altman, derribó el martes la red social viral de AI Moltbook como una probable moda, pero dijo que la tecnología que dejó que los bots actuaran por su cuenta ofreció un vistazo al futuro.Altman pronunció sus comentarios en la Cumbre de Cisco AI en San Francisco, mientras los líderes tecnológicos sopesaban el sitio similar a Reddit donde los bots alimentados por inteligencia artificial parecen intercambiar código y chismes sobre sus dueños humanos.
La red comenzó como un experimento de nicho a finales del mes pasado, pero se ha convertido en el centro de un creciente debate sobre lo cerca que están las computadoras de poseer inteligencia similar a la humana.El ascenso de Moltbook también trajo riesgos.
La firma de ciberseguridad Wiz dijo que ungran defecto expuso datos privados sobre miles de personas reales.El sitio ha sido poblado por un bot de código abierto OpenClaw – anteriormente conocido como Clawdbot o Moltbot – que sus fans describen como un asistente que puede mantenerse encima de los correos electrónicos, enredarse con aseguradoras, registrar vuelos y realizar una miríada de otras tareas.»Moltbook tal vez (es una moda pasajera) pero OpenClaw no lo es», dijo Altman.»Esta idea de que el código es realmente poderoso, pero el código más el uso generalizado de la computadora es aún mucho más potente, está aquí para quedarse».
El director de Anthropic Labs, Mike Krieger, hablando en la cumbre del bombo de OpenClaw, dijo que la mayoría de la gente aún no está lista para dar a IA plena autonomía sobre sus computadoras.Altman también señaló a Codex, el asistente de codificación impulsado por IA de OpenAI, que fue utilizado por más de un millón de desarrolladores el mes pasado, como una herramienta con una habilidad similar.OpenAI lanzó el lunes una aplicación independiente para Codex para el macOS de Apple, con el objetivo de competir más directamente con herramientas como Claude Code y Cursor que han provocado un auge en la codificación generada por IA, que se conoce popularmente como vib-codificación.El ascenso de la codificación de vibe y la capacidad de construir aplicaciones personalizadas con ella también han planteado interrogantes sobre el futuro de la industria del software, con las acciones hundiéndose en el sectorel martes después de que Anthropic lanzara un enchufe legal para su chatbot Claude.
Altman, sin embargo, dijo que la adopción de IA ha sido más lenta de lo que esperaba a pesar de los crecientes casos de uso que van desde la investigación médica hasta el software de escritura.»Creo que fui ingenuo y no lo pensé tan duro.Y en retrospectiva y viendo la historia, no debería sorprender», dijo sobre el ritmo de adopción.
Reporte de Aditya Soni en Bengaluru y Jeffrey Dastin en San Francisco; Edición de Tasim Zahid y Rashmi Aich
China advierte de riesgos de seguridad vinculados a agente
de IA de código abierto de OpenClaw
BEIJING, 5 feb (Reuters) – El ministerio de industria de China advirtió el jueves que el agente de IA de código abierto de OpenClaw, que ganó popularidad global en las últimas semanas, podría representar riesgos de seguridad significativos cuando configuran y exponen incorrectamente a los usuarios a ciberataques e infracciones de datos.El Ministerio de Industria y Tecnología de la Información del país dijo que había descubierto casos en los que los usuarios estaban operando OpenClaw con entornos de seguridad inadecuados y dijo que era necesario tomar mejores precauciones.
La advertencia no constituye una prohibición total.Pero el ministerio advirtió que las organizaciones que despliegan OpenClaw deben llevar a cabo auditorías exhaustivas de la exposición pública a la red, implementar una robusta autenticación de identidad y controles de acceso.OpenClaw ha tenido un aumento viral desde que se introdujo por primera vez en noviembre, recibiendo más de 100.000 estrellas en el repositorio de códigos GitHub y ates informando a 2 millones de visitantes en una sola semana, según una entrada de su creador Peter Steinberger.También ha ido creciendo en popularidad entre los entusiastas de la tecnología china, con proveedores de servicios en la nube corriendo a ofrecer soluciones de hospedaje para la plataforma de rápido crecimiento.
Los mayores proveedores de servicios en la nube de China, han lanzado servicios que permiten a los usuarios alquilar servidores para ejecutar OpenClaw de forma remota, en lugar de en dispositivos personales, según las páginas de implementación de OpenClaw de la compañía.
OpenClaw ganó atención esta semana tras la aparición de una nueva red social llamada Moltbook que se anuncia como exclusiva para el uso de bots OpenClaw.La firma de ciberseguridad Wiz dijo el lunes que la cadena tenía una falla importanteque expuso datos privados sobre miles de personas.
Reportaje de Shi Bu, Che Pan y Brenda Goh