Após cinco anos, a Cal.com está alterando seu produto principal de open source para código fechado. Essa decisão desafiadora é impulsionada principalmente pelas crescentes ameaças de segurança oriundas da IA, que demonstrou a capacidade de identificar e explorar vulnerabilidades em código aberto de forma acelerada. No entanto, para a comunidade, uma versão open source distinta, batizada de Cal.diy, será disponibilizada sob licença MIT, focada em hobbyistas e desenvolvedores.
CEVIU News
As melhores notícias de tecnologia, curadas diariamente para quem vive tech.
536 notícias encontradas
O aplicativo Gemini está agora disponível como uma experiência nativa no macOS, oferecendo assistência de IA integrada e acessível diretamente por meio de um atalho de teclado. Esta funcionalidade permite aos usuários compartilhar sua tela para obter contexto instantâneo sobre arquivos locais e dados exibidos em gráficos, otimizando a interação com a inteligência artificial para desenvolvedores e profissionais.
Anos de 'vibe coding' em Unity, replicando tutoriais sem compreender os princípios fundamentais de programação, resultaram em inúmeras falhas em entrevistas para um desenvolvedor. Essa experiência o forçou a reconstruir seu conhecimento desde a base para adquirir verdadeira expertise, servindo de alerta a outros sobre essa armadilha comum e cada vez mais presente na área do desenvolvimento de software e engines de jogos.
A Electronic Frontier Foundation (EFF) protocolou queixas contra o Google por quebrar sua promessa de notificar usuários antes de compartilhar seus dados com autoridades policiais.
Novos modelos de IA, como o Mythos da Anthropic, indicam que a cibersegurança está evoluindo para um sistema de 'proof of work'. Neste cenário, a proteção de sistemas exige um investimento computacional superior ao dos atacantes na descoberta de vulnerabilidades baseada em token, redefinindo as estratégias defensivas no combate às ameaças digitais.
Um relatório do Stack Overflow revela um aumento de 100% nas perguntas avançadas em sua plataforma desde 2023. Enquanto a IA demonstra proficiência na resolução de questões mais simples, 75% dos desenvolvedores ainda recorrem à expertise humana quando a saída gerada por inteligência artificial não inspira total confiança. Essa preferência sublinha o valor atribuído pelos profissionais de desenvolvimento aos comentários e às discussões que circundam as respostas, em detrimento das próprias soluções diretas. Aspectos como o debate contextualizado e a troca de conhecimentos, que a IA atualmente não consegue replicar ao consolidar o discurso em um único parágrafo conciso e autoritário, são cruciais para a validação e a profundidade da compreensão técnica.
O OpenAI Codex utiliza um único "harness" compartilhado, desenvolvido em Rust, para alimentar seu agente de codificação multiplataforma em diversas interfaces de cliente, como CLI, web, VS Code e macOS. No seu núcleo, um agent loop orquestra a model inference, as chamadas de ferramentas e as atualizações de prompts, com cache de prompt e compactação de contexto integrados. Todos os clientes interagem com o core do Codex através de um protocolo App Server JSON-RPC bidirecional e stable.
Índices de banco de dados otimizam o retrieval de dados, oferecendo uma estrutura ordenada que evita varreduras completas e lentas de tabelas. Contudo, eles apresentam contrapartidas significativas, tornando operações de escrita mais lentas, consumindo espaço de armazenamento e exigindo implementação cuidadosa para evitar armadilhas como ordem incorreta em índices compostos ou a aplicação de funções em colunas indexadas. Ferramentas como o comando `EXPLAIN` são cruciais para diagnosticar o uso de índices, enquanto tipos especializados, como índices funcionais (para expressões) e índices parciais (para subconjuntos de dados), são projetados para otimizar padrões de consulta específicos.
A MDN redesenhou seu frontend, migrando de uma SPA em React para uma arquitetura baseada em Lit, que utiliza web components para interatividade e componentes de servidor customizados para templating estático. Essa mudança resolveu o problema central de o React não conseguir interagir diretamente com o HTML da documentação. A nova configuração agora autodescobre e carrega sob demanda (lazy-loads) apenas o JavaScript e CSS necessário para cada página. Além disso, a plataforma usa Declarative Shadow DOM para renderização pré-JS e fez a transição do Webpack para o Rspack, o que reduziu o startup do servidor de desenvolvimento de dois minutos para apenas dois segundos, otimizando significativamente a experiência do desenvolvedor.
Armazenamento simples baseado em arquivos frequentemente oferece alta performance para diversas aplicações. Testes de benchmark contra SQLite demonstram que métodos como mapas em memória são superiores para buscas por ID, indicando que bancos de dados são essenciais apenas para requisitos como escalabilidade além dos limites de RAM de um único servidor, consultas complexas, escritas concorrentes ou transações atômicas.
A Inteligência Artificial demonstra grande capacidade para criar estruturas básicas de UI genéricas e desprovidas de originalidade. Contudo, sua performance decai drasticamente ao enfrentar demandas por interações customizadas, layouts pixel-perfect ou a implementação rigorosa de padrões de acessibilidade. As razões principais para essa limitação residem no fato de que essas IAs são frequentemente treinadas com CSS desatualizado, não conseguem 'visualizar' o resultado final que geram e carecem de uma compreensão aprofundada sobre raciocínio arquitetural de software.
Confiar apenas em tipos escalares gera bugs semânticos sutis que contornam os compiladores, pois eles não conseguem diferenciar conceitos de domínio distintos, um risco que não é totalmente mitigado nem mesmo agrupando parâmetros em structs. A solução proposta é encapsular cada conceito de domínio significativo em um "newtype" distinto, garantindo que o compilador imponha a correção semântica e resultando em código mais seguro, autodocumentado e com validação em tempo de compilação.
Uma avaliação de Gemma 4 como um modelo de programação baseado em agentes local no Codex CLI, comparado a modelos de nuvem como GPT-5.4, demonstrou que a confiabilidade na primeira tentativa, e não a velocidade bruta de token, foi a métrica de desempenho mais crucial, visto que os modelos de nuvem se mostraram os mais rápidos e confiáveis. Embora os modelos de nuvem ainda ofereçam o melhor desempenho geral, a capacidade de Gemma 4 de fazer chamadas de ferramenta (tool-calling) torna a programação local baseada em agentes uma opção viável.
Pesquisas acadêmicas financiadas pelo governo, que se estenderam por 30 anos e focaram em computação paralela, gráficos e processamento de stream, impulsionaram diretamente o desenvolvimento da computação de GPU. Essa tecnologia é hoje vital para a revolução moderna da inteligência artificial (IA) e detém um valor econômico considerável. A expertise acadêmica fundamental foi transferida para a indústria, culminando na evolução de linguagens como Brook para CUDA na Nvidia.
Projetos open source como o Jellyfin enfrentam backlogs massivos de Pull Requests (PRs) não mergeados, causados por gargalos operacionais. Um dos principais fatores é a alta utilização de um único mantenedor, que pode se aproximar de 100% de sua capacidade, resultando em tempos de espera crescentes exponencialmente e um fenômeno conhecido como "batch size death spiral", onde PRs de grande porte obstruem o sistema. Para mitigar essa situação, é crucial otimizar o tempo dos mantenedores existentes. As estratégias incluem limitar o tamanho dos PRs, estabelecer critérios de qualidade rigorosos, restringir o trabalho em andamento (WIP), definir cadências claras para revisões e implementar uma estrutura de níveis para revisores, garantindo maior fluidez e qualidade no desenvolvimento de software.
O Google Chrome está lançando Skills, uma nova funcionalidade que permite aos usuários salvar e reutilizar seus prompts de IA mais eficazes como ferramentas de um clique para tarefas recorrentes em diferentes páginas web. Essas ferramentas personalizadas otimizam fluxos de trabalho, como comparações de produtos ou análise de documentos.
Claude Code Routines automatizam tarefas repetitivas e não supervisionadas, como code review ou triagem de alertas. Isso é feito executando configurações salvas de forma autônoma na infraestrutura em nuvem da Anthropic. Desenvolvedores podem acionar essas rotinas por meio de agendamentos, chamadas de API ou eventos do GitHub, como pull requests. A gestão e o controle dessas rotinas são realizados por meio da interface web, do CLI ou do aplicativo desktop, oferecendo flexibilidade e integração ao fluxo de trabalho.
A mentalidade hacker exige ir além das regras superficiais e abstrações de um sistema, buscando compreender a fundo sua mecânica subjacente. Essa perspectiva permite não apenas antecipar problemas, mas também desenvolver soluções não convencionais e otimizadas. É o poder de entender o funcionamento real de um sistema que viabiliza resultados de alta performance e eficiência.
O Manifesto do Agente de Codificação por IA estabelece valores centrais que enfatizam contratos sobre convenções, verificação sobre geração e comunicação explícita para guiar o desenvolvimento de software orientado por IA. O manifesto, então, delineia doze princípios, como humanos definindo esqueletos de código, documentando convenções de agentes, separando a geração de código do julgamento e tratando o código gerado por IA como "culpado até que se prove o contrário".
Um desenvolvedor criou o linter de análise estática customizado "transactioncheck", utilizando o framework `go/analysis` do Go, para resolver bugs sutis em transações de banco de dados. Esses bugs causavam corrupção de dados e race conditions, frequentemente não detectados em revisões de código e testes. Este linter funciona percorrendo a Abstract Syntax Tree (AST) para verificar se todas as operações de banco de dados utilizam corretamente o parâmetro com escopo de transação. Dessa forma, ele captura eficientemente violações existentes e previne futuros bugs em tempo de compilação ao ser executado na CI.
