CEVIU News

As melhores notícias de tecnologia, curadas diariamente para quem vive tech.

7178 notícias encontradas

O OpenAI Codex agora funciona diretamente no Chrome, tanto em macOS quanto em Windows. Ele opera em paralelo entre as abas em segundo plano, sem assumir o controle do navegador. Essa implementação permite executar rapidamente tarefas repetitivas no browser, como navegar por páginas estruturadas e gerenciar fluxos de dados complexos, ao escrever código para navegar e concluir as tarefas de forma subjacente. Vídeos demonstrativos que ilustram as capacidades da funcionalidade para os usuários estão disponíveis no artigo.

A OpenAI lançou um novo conjunto de modelos de áudio em tempo real, incluindo o GPT‑Realtime‑2 para raciocínio conversacional, o GPT‑Realtime‑Translate para tradução multilíngue ao vivo e o GPT‑Realtime‑Whisper para transcrição em streaming.

A Meta está desenvolvendo o Hatch, um agente de IA posicionado como um concorrente de nível consumidor para o OpenClaw da OpenAI, com recursos para geração de imagens e vídeos, compras e aprendizado, profundamente integrados em plataformas sociais como Instagram e Facebook. Testes internos são esperados até junho, utilizando ambientes simulados, com um potencial lançamento amplo restrito por uma lista de espera. A Meta também planeja uma ferramenta de compras para o Instagram até o quarto trimestre, visando manter os usuários engajados em seus espaços sociais existentes.

Os Workflows Agentic do GitHub aprimoram significativamente a higiene e a qualidade dos repositórios, porém os custos associados estão se tornando uma preocupação crescente para os desenvolvedores. Como as tarefas de IA, como os workflows agentic, são agendadas e acionadas automaticamente, os custos podem se acumular de forma discreta. Para lidar com isso, o GitHub iniciou no mês passado um processo sistemático de otimização do uso de tokens em muitos desses workflows. Esta publicação descreve as ferramentas instrumentadas pela equipe, as otimizações implementadas e os resultados preliminares obtidos.

O recurso "goal" é uma funcionalidade de destaque lançada no Codex em 30 de abril, que introduziu "goals" persistentes. Estes são estados de "goal" que sobrevivem a reinícios de terminal, suspensão de notebooks e pausas de várias horas, eliminando a necessidade de re-prompt. O recurso injeta uma mensagem de desenvolvedor ao retomar, em vez de exigir que o usuário controle o tempo. Isso permite que os usuários desliguem seus dispositivos e continuem exatamente de onde pararam, sem qualquer re-prompt.

É preciso estabelecer um padrão mais elevado para o que constitui boa qualidade. Qualquer fornecedor que esteja vendendo para um laboratório de fronteira é implicitamente avaliado durante a decisão de compra, e a maioria está falhando em múltiplas barreiras de controle de qualidade simultaneamente. Padronizar o controle de qualidade (QC) para avaliar o quão bem os dados testam algo na curva de Pareto de performance-custo-latência é de suma importância. Os fornecedores que não internalizarem um padrão de QC mais elevado começarão a enfrentar problemas este ano.

AlphaEvolve é um agente de codificação baseado em Gemini capaz de projetar algoritmos avançados. Ele pode auxiliar na realização de novas descobertas em problemas em aberto da matemática e da ciência da computação. O agente foi atualizado com a capacidade de ajudar a explicar a física do mundo natural, visando acelerar o progresso para cientistas e empresas em diversas áreas. Esta publicação detalha os campos em que o AlphaEvolve obteve os impactos mais significativos até o momento.

A Ramp Sheets desenvolveu o Fast Ask para gerenciar o loop de information retrieval do seu agente de planilhas. Ele é capaz de navegar por uma pasta de trabalho, ler os intervalos relevantes e retornar uma resposta compacta para o agente principal utilizar. Esta publicação apresenta o Fast Ask como um estudo de caso para reinforcement learning, detalhando quando vale a pena treinar um agente especializado, como projetar o ambiente e como avaliar se o pós-treinamento funcionou.

A Anthropic apresentou os Natural Language Autoencoders (NLAs), uma tecnologia capaz de traduzir as ativações de modelos de IA em texto legível por humanos. O objetivo é auxiliar na compreensão dos processos internos e dos "pensamentos" dos modelos, facilitando a detecção de preocupações de safety e motivações ocultas no comportamento da IA. Os NLAs, portanto, aprimoram a auditoria de alignment de modelos, apesar de enfrentarem desafios como alucinações e altos custos operacionais. A Anthropic disponibilizou recursos de treinamento para promover o desenvolvimento e a exploração contínua desta técnica inovadora de auditoria de IA.

Laboratórios chineses e americanos de IA exibem semelhanças em seus resultados e componentes, mas diferem significativamente em sua organização e abordagem. Cientistas chineses demonstram maior disposição para realizar trabalhos menos visíveis focados na melhoria de modelos, em vez de priorizar suas próprias ideias. Isso resulta em uma menor gamificação do sistema e maior flexibilidade na adaptação de técnicas modernas. A comunidade chinesa de IA é percebida mais como um ecossistema colaborativo do que como grupos em competição, com todos os laboratórios mantendo respeito mútuo por seus pares. Além disso, há uma atenção significativamente menor ao aspecto comercial da tecnologia.

A narrativa predominante no Vale do Silício enfatiza a AGI como o recurso escasso definitivo, mas a rápida comoditização dos modelos de IA coloca isso em xeque. A inteligência artificial, tal como o compute, a largura de banda e o armazenamento, está agora sujeita a forças de mercado que intensificam a concorrência e reduzem os custos. Nesse cenário, os verdadeiros vencedores em IA não serão necessariamente aqueles com os modelos mais avançados, mas sim as empresas que controlam os relacionamentos com os clientes e os dados proprietários, espelhando o sucesso de gigantes tecnológicos anteriores.

A Perplexity lançou o Personal Computer para todos os usuários de Mac através de seu aplicativo de desktop. Esta ferramenta concede aos agentes de IA acesso a arquivos locais, aplicativos, conectores e à web, ampliando as capacidades de interação e execução de tarefas no ambiente Mac.

Um grupo não identificado invadiu servidores que já estavam comprometidos pelo TeamPCP, expulsou os atacantes originais, limpou suas ferramentas e implantou um worm auto-propagável que mirava os serviços em nuvem das vítimas. Os atacantes também roubaram credenciais para revenda, acessaram contas de corretagem e se dedicaram à extorsão, que incluía phishing para obter logins de gerenciadores de senhas e a utilização de sites falsos de suporte técnico, sem investir tempo em esquemas de mineração de criptomoedas mais lentos.

Sam C, da Tanto Security, realizou engenharia reversa no roteador industrial 4G LTE PUSR USR-G806AU (firmware 1.0.41 e 2.0.13) e descobriu uma conta uid=0 não documentada, chamada "usr", cuja senha estava localizada no helper /bin/usr_root. Esta senha era codificada adicionando 0x61 (mod 256) a cada caractere de um blob de 14 bytes e direcionada para su - usr -c em runtime, sendo rastreada como CVE-2024-42682. A allowlist de comandos do mesmo binário também permite o escalonamento local de privilégios via substituição de comando $(...) e backtick (omitida de sua denylist &;|#), e através do empilhamento de argumentos /bin/sh -c que permite que /sbin/tcpdump contorne a verificação de comando válido. A senha recuperada concede acesso root remoto aos daemons SSH e Telnet, expostos por padrão nas portas 2222 e 2233. Proprietários devem bloquear as interfaces de gerenciamento (HTTP, SSH, Telnet nas portas 80/1080/8008/8888/9080, 23/2233/2323, 2222) de redes não confiáveis, já que a PUSR não responde desde julho de 2024 e nenhuma correção foi confirmada. Desenvolvedores devem substituir os wrappers su com credenciais embutidas por políticas sudoers que evitem o armazenamento de senhas recuperáveis em disco.

O analisador de IA autônomo da AISLE divulgou 38 CVEs no OpenEMR, a plataforma de prontuário eletrônico certificada pela ONC que atende mais de 100.000 provedores e 200 milhões de pacientes, representando mais da metade de todos os avisos do GitHub do OpenEMR no primeiro trimestre de 2026. As descobertas incluem duas injeções de SQL com CVSS 10.0 (CVE-2026-24908 no parâmetro _sort da Patient REST API e CVE-2026-23627 no campo patient_id de pesquisa/relatório de imunização). Nestas injeções, a concatenação não sanitizada em cláusulas ORDER BY e WHERE permite extração baseada em UNION, injeção cega baseada em tempo e RCE via privilégios de FILE. Além disso, foi encontrado um bypass de compartimento de paciente FHIR CareTeam (CVE-2026-24487) causado pelo FhirCareTeamService que não implementou a interface marker que aciona os filtros de escopo de paciente, juntamente com uma série de IDORs, XSS armazenado que ultrapassa a fronteira de confiança entre paciente e clínico, path traversals e um bypass de tempo limite de sessão. Defensores que utilizam OpenEMR devem atualizar imediatamente para versões posteriores à 8.0.0 e aos três patches subsequentes de março, auditar a aplicação do escopo do token OAuth2 nos endpoints FHIR e revogar os privilégios de FILE da conta do banco de dados do OpenEMR para conter qualquer comprometimento por injeção de SQL pré-patch.

Pesquisadores da GitGuardian desenvolveram cadeias de Markov, treinadas com 8.000 senhas de 40 LLMs de 11 provedores diferentes. Eles exploraram vieses estatísticos, como a taxa de 35% de unicidade do Claude Opus 4.6 e substrings recorrentes (por exemplo, Gx#8dL em 96% das saídas do Llama-3.3-70b), para identificar o modelo e o provedor com 55% e 65% de precisão, respectivamente. Aplicado a 34 milhões de senhas do GitHub entre novembro de 2025 e março de 2026, o classificador sinalizou 28.000 como geradas por LLM, a uma taxa de aproximadamente 1.500 por semana, com Anthropic, Qwen e Google respondendo por 63% delas. Além disso, 1.800 arquivos .env e configurações do Terraform foram encontrados com credenciais geradas por IA hardcoded. Para proteção, as empresas devem proibir LLMs como geradores de senhas em suas políticas, exigir a geração baseada em vaults e fazer o deploy de scanners de hook-event como ggshield contra saídas de agentes Claude e Cursor, visto que esses mesmos modelos de Markov permitem um cracking muito mais eficiente do que a força bruta.

A Searchlight Cyber encadeou uma injeção de template AMPScript (via TreatAsContent e uma dupla avaliação padrão de linhas de assunto de e-mail) com um CBC padding oracle no parâmetro qs, compartilhado por todos os tenants do SFMC. Em seguida, contornou a blocklist de parâmetros reservados do MicrositeURL contrabandeando =0&LID=1&j=2&m=3&ls=4 em um único argumento para forjar strings de consulta criptografadas arbitrárias entre tenants. Um esquema XOR legado, com chave baseada em uma string estática repetitiva e um checksum 0xFFFF ^ sum(bytes), ainda era validado em tenants recém-criados, reduzindo a enumeração do SubscriberID 'ls' a uma requisição HTTP por tentativa e expondo as data views _Subscribers, _Sent, _Job, _Click e _SMSMessageTracking em todas as instâncias da Fortune 500 hospedadas na plataforma. A Salesforce implementou AES-GCM, expirou todos os links anteriores a 23 de janeiro de 2026 às 21:00 UTC e desativou a dupla avaliação de linhas de assunto sob as CVEs CVE-2026-22585, CVE-2026-22586, CVE-2026-22582, CVE-2026-22583 e CVE-2026-2298. Portanto, os defensores devem confirmar que nenhum link de e-mail de marketing permanece fixado ao formato antigo, auditar qualquer AMPScript customizado que passe entrada de assinante para TreatAsContent e considerar qualquer URL renderizada historicamente pelo SFMC como não confiável.