Lunes, 09 de febrero de 2026 Lun 09/02/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Tecnología

OpenClaw es la IA más viral, fascinante y peligrosa del momento. Por eso último se ha aliado con la malagueña VirusTotal

OpenClaw es la IA más viral, fascinante y peligrosa del momento. Por eso último se ha aliado con la malagueña VirusTotal
Artículo Completo 883 palabras
En 2025 tuvimos un 'momento DeepSeek' y en 2026 estamos teniendo un 'momento OpenClaw'. Este agente de IA es súper potente, pero también súper inseguro. Hay no obstante buenas noticias, porque la empresa malagueña VirusTotal se ha aliado con el proyecto OpenClaw para tratar de mitigar uno de los riesgos de ciberseguridad más importantes de este agente de IA: sus skills. Qué ha pasado. OpenClaw (antes Moltbot, y antes Clawdbot) ha anunciado que ha iniciado una colaboración con la empresa de ciberseguridad malagueña VirusTotal, propiedad de Google. El acuerdo hará que VirusTotal se encargue de "escanear" y analizar los llamados "skills", que funcionan como plugins de OpenClaw y añaden todo tipo de funciones. Lo hacen, desde luego, pero muchos aprovechan para introducir instrucciones maliciosas que permiten robar datos y operar remotamente los agentes de IA de otras personas. Más seguridad para una IA inquietante. Peter Steinberger, creador del proyecto se ha unido a Jamieson O'Reilly, experto en ciberseguridad y fundador de la empresa Dvuln, y a Bernardo Quintero, fundador de VirusTotal, para ofrecer esa "capa adicional de seguridad para la comunidad OpenClaw". En el anuncio oficial explican que "todos los skills publicados en ClawdHub [la "tienda" de skills oficial del proyecto] se escanean ahora a través del sistema Threat Intelligence de Virus Total, incluyendo su nueva capacidad Code Insight [de inspección del código]". Bernardo Quintero indicaba en Twitter cómo el esfuerzo ya ha permitido identificar 1.700 skillls como maliciosos. Si el skill es malicioso, se bloquea. Ese análisis realizado con las herramientas de VirusTotal permite identificar skills como maliciosos para bloquearlos inmediatamente de forma que no se puedan descargar. No solo eso: aquellos skills que se han calificado como benignos se analizan de nuevo cada día para detectar escenarios en los que por alguna razón puedan acabar volviéndose maliciosos.  Aun así, cuidado. Los responsables de OpenClaw avisan: el escaneo de VirusTotal ayuda mucho, pero no es una garantía total de que algún skill pueda lograr realizar acciones maliciosas en la máquina en la que tenemos instalado nuestro agente de IA. Los ataques de prompt injection sofisticados pueden lograr traspasar esa barrera, pero desde luego esta colaboración hace que los usuarios de OpenClaw puedan estar bastante más tranquilos respecto a los skills disponibles en el repositorio de ClawdHub. OpenClaw quiere ser mucho más seguro. Este primer esfuerzo se une a la ambición de OpenClaw de contar con un modelo de ciberseguridad completo en el que incluya cosas como una hoja de ruta pública para sus novedades en este ámbito, un proceso de comunicación formal y detalles sobre las auditorías completas de su código.  En Xataka Crear un compilador de C costaba 2 millones de dólares y tardaba 2 años. Claude Opus 4.6 lo ha hecho en dos semanas por 20.000 dólares Taponando un problema que podía matar OpenClaw. El proyecto OpenClaw pronto se convirtió en viral debido a sus llamativas opciones, pero poco después de hacerlo una auditoría de seguridad inicial de 2.851 skills detectó 341 skills maliciosos. Empresas como BitDefender también se sumaron a estos esfuerzos para evitar problemas con herramientas como AI Skills Checker para comprobar si un skill era o no peligroso. Estos skills maliciosos eran por ejemplo capaces de ejecutar comandos shell en la máquina víctima, lo que daba control total al atacante de esos recursos.  Atacar a la máquina es confundirla con lenguaje natural. Normalmente los ataques de ciberseguridad son complejos, pero el problema de los agentes de IA es que funcionan con lenguaje natural. Eso implica que para infiltrarse en estos sistemas no hay que usar código, sino que basta con "convencer" y "engañar" a la IA con lenguaje natural. Ahí es donde entran los ataques de prompt inyection, que consisten en dar instrucciones a esos agentes de IA que puedan llegar a confundirlos para obtener algo que teóricamente no deberían dejar obtener. Datos personales, claves API de los modelos que usamos en OpenClaw, cuentas de correo y contraseñas de todo tipo de servicios... las posibilidades son infinitas, y OpenClaw, que tiene acceso a todo ello para operar de forma autónoma, puede acabar siendo "engañado" para ceder dichos datos. Cuidado con OpenClaw. Estos problemas parecen ahora algo menos factibles gracias a la colaboración con VirusTotal, pero quienes están probando OpenClaw en sus máquinas o en cualquier otra plataforma deben estar muy alerta desde el principio. Hay guías que ayudan a instalarlo con algunas barreras de seguridad importantes, y el propio proyecto cuenta con un comando ('openclaw security audit --deep --fix' para auditar los problemas más importantes y atajarlos. En Xataka | OpenAI tiene un problema: Anthropic está triunfando justo donde más dinero hay en juego - La noticia OpenClaw es la IA más viral, fascinante y peligrosa del momento. Por eso último se ha aliado con la malagueña VirusTotal fue publicada originalmente en Xataka por Javier Pastor .
OpenClaw es la IA más viral, fascinante y peligrosa del momento. Por eso último se ha aliado con la malagueña VirusTotal
  • Este proyecto está colaborando con la empresa de ciberseguridad española que es parte de Google

  • Gracias a VirusTotal se podrán mitigar los problemas generados por los llamados 'skills' maliciosos

1 comentarioFacebookTwitterFlipboardE-mail 2026-02-09T08:31:53Z

Javier Pastor

Editor Senior - Tech

Javier Pastor

Editor Senior - Tech Linkedintwitter9851 publicaciones de Javier Pastor

En 2025 tuvimos un 'momento DeepSeek' y en 2026 estamos teniendo un 'momento OpenClaw'. Este agente de IA es súper potente, pero también súper inseguro. Hay no obstante buenas noticias, porque la empresa malagueña VirusTotal se ha aliado con el proyecto OpenClaw para tratar de mitigar uno de los riesgos de ciberseguridad más importantes de este agente de IA: sus skills.

Qué ha pasado. OpenClaw (antes Moltbot, y antes Clawdbot) ha anunciado que ha iniciado una colaboración con la empresa de ciberseguridad malagueña VirusTotal, propiedad de Google. El acuerdo hará que VirusTotal se encargue de "escanear" y analizar los llamados "skills", que funcionan como plugins de OpenClaw y añaden todo tipo de funciones. Lo hacen, desde luego, pero muchos aprovechan para introducir instrucciones maliciosas que permiten robar datos y operar remotamente los agentes de IA de otras personas.

Más seguridad para una IA inquietante. Peter Steinberger, creador del proyecto se ha unido a Jamieson O'Reilly, experto en ciberseguridad y fundador de la empresa Dvuln, y a Bernardo Quintero, fundador de VirusTotal, para ofrecer esa "capa adicional de seguridad para la comunidad OpenClaw". En el anuncio oficial explican que "todos los skills publicados en ClawdHub [la "tienda" de skills oficial del proyecto] se escanean ahora a través del sistema Threat Intelligence de Virus Total, incluyendo su nueva capacidad Code Insight [de inspección del código]". Bernardo Quintero indicaba en Twitter cómo el esfuerzo ya ha permitido identificar 1.700 skillls como maliciosos.

Si el skill es malicioso, se bloquea. Ese análisis realizado con las herramientas de VirusTotal permite identificar skills como maliciosos para bloquearlos inmediatamente de forma que no se puedan descargar. No solo eso: aquellos skills que se han calificado como benignos se analizan de nuevo cada día para detectar escenarios en los que por alguna razón puedan acabar volviéndose maliciosos. 

Aun así, cuidado. Los responsables de OpenClaw avisan: el escaneo de VirusTotal ayuda mucho, pero no es una garantía total de que algún skill pueda lograr realizar acciones maliciosas en la máquina en la que tenemos instalado nuestro agente de IA. Los ataques de prompt injection sofisticados pueden lograr traspasar esa barrera, pero desde luego esta colaboración hace que los usuarios de OpenClaw puedan estar bastante más tranquilos respecto a los skills disponibles en el repositorio de ClawdHub.

OpenClaw quiere ser mucho más seguro. Este primer esfuerzo se une a la ambición de OpenClaw de contar con un modelo de ciberseguridad completo en el que incluya cosas como una hoja de ruta pública para sus novedades en este ámbito, un proceso de comunicación formal y detalles sobre las auditorías completas de su código. 

En XatakaCrear un compilador de C costaba 2 millones de dólares y tardaba 2 años. Claude Opus 4.6 lo ha hecho en dos semanas por 20.000 dólares

Taponando un problema que podía matar OpenClaw. El proyecto OpenClaw pronto se convirtió en viral debido a sus llamativas opciones, pero poco después de hacerlo una auditoría de seguridad inicial de 2.851 skills detectó 341 skills maliciosos. Empresas como BitDefender también se sumaron a estos esfuerzos para evitar problemas con herramientas como AI Skills Checker para comprobar si un skill era o no peligroso. Estos skills maliciosos eran por ejemplo capaces de ejecutar comandos shell en la máquina víctima, lo que daba control total al atacante de esos recursos. 

Atacar a la máquina es confundirla con lenguaje natural. Normalmente los ataques de ciberseguridad son complejos, pero el problema de los agentes de IA es que funcionan con lenguaje natural. Eso implica que para infiltrarse en estos sistemas no hay que usar código, sino que basta con "convencer" y "engañar" a la IA con lenguaje natural. Ahí es donde entran los ataques de prompt inyection, que consisten en dar instrucciones a esos agentes de IA que puedan llegar a confundirlos para obtener algo que teóricamente no deberían dejar obtener. Datos personales, claves API de los modelos que usamos en OpenClaw, cuentas de correo y contraseñas de todo tipo de servicios... las posibilidades son infinitas, y OpenClaw, que tiene acceso a todo ello para operar de forma autónoma, puede acabar siendo "engañado" para ceder dichos datos.

Cuidado con OpenClaw. Estos problemas parecen ahora algo menos factibles gracias a la colaboración con VirusTotal, pero quienes están probando OpenClaw en sus máquinas o en cualquier otra plataforma deben estar muy alerta desde el principio. Hay guías que ayudan a instalarlo con algunas barreras de seguridad importantes, y el propio proyecto cuenta con un comando ('openclaw security audit --deep --fix' para auditar los problemas más importantes y atajarlos.

En Xataka | OpenAI tiene un problema: Anthropic está triunfando justo donde más dinero hay en juego

Fuente original: Leer en Xataka
Compartir