Tecnologia

Moltbook viraliza, mas especialistas apontam falhas de segurança

Publicado

no

A criação do OpenClaw, projeto que ganhou força nas últimas semanas após a popularização da rede social experimental Moltbook, gerou debates sobre os limites da chamada IA agentic. A plataforma simulava um espaço em que agentes de inteligência artificial (IA) interagiam entre si, levando parte da comunidade a acreditar que sistemas autônomos estariam se organizando sem supervisão humana.

Com o avanço das análises, porém, pesquisadores apontaram que o fenômeno não representava uma ação real de agentes de IA. Segundo especialistas em segurança, falhas técnicas permitiam que pessoas reais publicassem conteúdos se passando por bots, levantando dúvidas sobre a autenticidade de todo o material publicado e reacendendo discussões sobre riscos de segurança ligados a esse tipo de tecnologia.

openclaw
OpenClaw chamou a atenção, mas especialistas alertam para riscos de cibersegurança (Imagem: Koshiro K / Shutterstock.com)

Falhas no Moltbook, rede social de agentes, expõem limites do projeto

A repercussão começou após mensagens publicadas no Moltbook sugerirem que agentes buscavam espaços privados para conversar. O caso chamou atenção de figuras conhecidas do setor, incluindo Andrej Karpathy, ex-diretor de IA da Tesla e membro fundador da OpenAI, que classificou o momento como algo próximo de uma ficção científica.

Posteriormente, análises mostraram que a rede apresentava problemas de segurança. Ian Ahl, CTO da Permiso Security, afirmou que credenciais armazenadas no banco de dados Supabase ficaram expostas por um período, permitindo que qualquer usuário acessasse tokens e se passasse por outros agentes. A consequência foi a impossibilidade de confirmar se postagens eram realmente geradas por IA.

John Hammond, pesquisador principal de segurança da Huntress, destacou ao TechCrunch que humanos podiam criar contas, simular bots e até impulsionar publicações sem restrições. Apesar disso, o Moltbook virou um experimento cultural na internet, com versões inspiradas em redes sociais conhecidas, incluindo serviços de relacionamento e fóruns voltados a agentes.

Anúncio

Leia mais:

  • Posso ser preso por usar inteligência artificial?
  • Samsung Bespoke Jet AI: como funciona o aspirador com inteligência artificial da marca?
  • Pingo AI: como aprender inglês ou outro idioma usando inteligência artificial

Popularidade do OpenClaw e questionamentos sobre inovação

O OpenClaw é um projeto open source do desenvolvedor austríaco Peter Steinberger, inicialmente lançado como Clawdbot. A ferramenta acumulou mais de 190 mil estrelas no GitHub, tornando-se um dos repositórios de código mais populares da plataforma.

O sistema facilita o uso de agentes de IA, permitindo integração com aplicativos como WhatsApp, Discord, iMessage e Slack, além de funcionar como uma camada de conexão com modelos já existentes, como Claude, ChatGPT, Gemini e Grok. Para John Hammond, no entanto, o OpenClaw atua basicamente como um “wrapper” desses modelos, sem apresentar ruptura tecnológica.

Chris Symons, cientista-chefe de IA da Lirio, avalia que o projeto representa uma melhoria incremental, principalmente por ampliar o acesso dos agentes a diferentes sistemas. Já Artem Sorokin, engenheiro de IA e fundador da ferramenta de cibersegurança Cracken, afirma que os componentes já existiam e que o diferencial foi apenas combinar recursos de forma mais fluida.

A facilidade de automatizar tarefas, do gerenciamento de e-mails à negociação de ações por meio de habilidades baixadas na loja ClawHub, ajudou a impulsionar a viralização. Ainda assim, especialistas alertam que a produtividade prometida depende de um nível de confiança que a tecnologia ainda não alcançou.

Anúncio
senhas vazadas
Testes de segurança mostraram vulnerabilidades a ataques de prompt injection (Imagem: Song_about_summer / Shutterstock.com)

Testes de segurança conduzidos por Ian Ahl mostraram vulnerabilidades a ataques de prompt injection, técnica em que comandos maliciosos levam agentes a executar ações indevidas, como compartilhar credenciais ou realizar transferências. Em ambientes corporativos, esse cenário pode representar risco elevado, já que os agentes operam com acesso amplo a e-mails e plataformas internas.

Apesar de existirem proteções, pesquisadores afirmam que não há garantia de que agentes não sejam manipulados. Para Hammond, o setor enfrenta um impasse: permitir alto nível de automação implica aceitar riscos de segurança ainda não resolvidos. Diante desse quadro, ele recomenda que usuários comuns evitem a tecnologia por enquanto.

O post Moltbook viraliza, mas especialistas apontam falhas de segurança apareceu primeiro em Olhar Digital.

Powered by WPeMatico

Anúncio

Em Alta

Sair da versão mobile