Skip to main content

the avatar of Alessandro de Oliveira Faria

Desligando auto indenting no VIM/VI

Ao editar arquivos no Vim, o editor pode aplicar automaticamente regras de indentação que, embora úteis em muitas situações, podem ser indesejadas em outros contextos (como ao editar arquivos de configuração, logs ou trechos de código com formatação específica). Para desativar essas funcionalidades, você pode usar os seguintes comandos:

:setlocal noautoindent
:setlocal nocindent
:setlocal nosmartindent
:setlocal indentexpr=

ou

:setl noai nocin nosi inde=

Abaixo, explico o que cada uma dessas opções faz:

  • :setl (ou :setlocal) — Aplica as configurações apenas ao buffer atual, sem afetar outros arquivos abertos.
  • noai (noautoindent) — Desativa a cópia automática da indentação da linha anterior ao iniciar uma nova linha.
  • nocin (nocindent) — Desativa a indentação baseada em sintaxe e estrutura do código, comum em linguagens como C.
  • nosi (nosmartindent) — Impede que o Vim tente “adivinhar” a indentação com base na estrutura do código (como abrir chaves {).
  • inde= — Limpa a expressão de indentação usada pelo indentexpr, garantindo que nenhuma lógica personalizada de indentação seja aplicada.

Com esse conjunto de comandos, você garante que o Vim não altere a indentação automaticamente, permitindo um controle total e manual sobre a formatação do seu texto.

A partir desse momento, o Vim deixará de aplicar indentação automática no buffer atual.


🔄 Tornando a configuração permanente

Se você quer que o Vim sempre abra com a indentação automática desativada, edite o arquivo ~/.vimrc:

vim ~/.vimrc

Adicione estas linhas:

" Desativa indentação automática globalmente
set noautoindent
set nocindent
set nosmartindent
set indentexpr=

Aplicando apenas para arquivos específicos

Não quer desativar a indentação para tudo? Você pode aplicar a regra apenas para certos tipos de arquivos usando autocmd:

" Desativa indentação automática apenas para arquivos .txt e .yaml
autocmd FileType txt,yaml setlocal noautoindent nocindent nosmartindent indentexpr=

Essa é uma forma elegante de manter a indentação automática em linguagens como Python ou C, e desabilitá-la onde ela atrapalha.


🧠 Conclusão

Saber como o Vim lida com indentação pode poupar muita dor de cabeça. Com comandos simples, você assume o controle do editor e molda o comportamento conforme seu fluxo de trabalho. Teste as opções acima e ajuste conforme sua necessidade.

the avatar of Alessandro de Oliveira Faria

openSUSE Leap 15.6 cool packages disponível!

Instalou o openSUSE Leap 15.5? E agora o que instalar? E os codecs proprietários ? E os codecs multimídia? Demorou mas foi concluído! O Cool Package é um processo que instala alguns software necessários para a dia a dia de um SUSEIRO e resolver todas as questões de dependências. O Cool Package disponibiliza:

  • Thunderbird
  • Codecs
  • VLC
  • KDEnlive
  • DVDAuthor
  • MPV
  • ffmpeg
  • Lame
  • E outros…

A seguir o botão 1-click Install. que resolver estes questionamentos, pois este botão instala os primeiros softwares principais para a tarefa do dia a dia como: o cliente de email Thunderbird, VLC, MPV, Codecs proprietários e editores de vídeos. Qualquer dúvida, críticas e sugestões em cabelo@opensuse.org

the avatar of Alessandro de Oliveira Faria

GLM 4 outra super IA entre nós.

*** Imagem ilustrativa

Faz 4 horas que a nova geração da família GLM acaba de ser lançada, e o modelo GLM-4-32B-0414 está dando o que falar! Com incríveis 32 bilhões de parâmetros, essa IA open-source se posiciona no mesmo nível de gigantes como GPT-4o e DeepSeek-V3, superando-os em vários benchmarks – tudo isso com código aberto e licença MIT! 🔥

🔹 Destaques do GLM-4-32B:

  • Treinado com 15 trilhões de tokens de dados de alta qualidade, incluindo dados sintéticos focados em raciocínio.
  • Otimizado com rejection sampling e reforço por RL para tarefas de agentes, código, chamadas de função e busca com Q&A.
  • Supera modelos como GPT-4o, Qwen2.5-Max e DeepSeek em testes como IFEval (87.6), TAU-Bench e SimpleQA.
  • Equivalência com GPT-4o em chamadas de função (BFCL-v3).
  • Suporte nativo ao Hugging Face Transformers desde o primeiro dia.

🧠 GLM-Z1-32B-0414Raciocínio profundo e preciso
Versão turbinada para lógica, matemática e programação. Desenvolvido com técnicas avançadas de RL e feedback por ranking pareado, esse modelo é ideal para tarefas complexas.

🌀 GLM-Z1-Rumination-32B-0414Pensamento prolongado, estilo pesquisa
Perfeito para problemas abertos e análises profundas (como comparar estratégias de IA entre cidades). Integra ferramentas de busca e múltiplas recompensas para gerar respostas mais inteligentes e fundamentadas.

💡 GLM-Z1-9B-0414Pequeno notável
Mesmo com apenas 9B de parâmetros, essa versão mantém performance de ponta em raciocínio matemático e geral, sendo excelente para cenários com recursos limitados.

🔓 Todos os modelos estão disponíveis no Hugging Face Hub com integração total aos Transformers — prontos para uso local, sem complicações.


🌐 Se você curte IA open-source, raciocínio complexo e desempenho comparável aos maiores modelos do mercado, GLM-4 é sua próxima parada. Bora testar esse titã dos algoritmos?

#GLM4 #IAOpenSource #MachineLearning #DeepReasoning #Transformers #AGI #GLMZ1 #AIForAll

the avatar of Alessandro de Oliveira Faria

Feliz dia quântico!

O Dia Mundial do Quântico é celebrado anualmente no dia 14 de abril. A escolha desta data não é aleatória: ela faz referência à notação 4,14, que representa os dígitos iniciais, de forma arredondada, da constante de Planck — um dos pilares fundamentais da física quântica.

Essa constante, cujo valor exato é 4,1356677 × 10⁻¹⁵ elétron-volt segundo (eV·s), estabelece a relação entre a energia de uma partícula e a frequência da sua onda associada.

Em termos simples, trata-se de um valor extremamente pequeno, equivalente a 0,000 000 000 000 004 1356677 eV·s, e é essencial para descrever o comportamento das partículas subatômicas. Assim, o dia 14/4 simboliza a grandiosidade do infinitamente pequeno, homenageando a revolução científica trazida pela mecânica quântica.

the avatar of Alessandro de Oliveira Faria

OpenVINO 2025.1.0 Lançado

Como mantenedor do OpenVINO na distribuição OpenSUSE for INNOVATORS base de tecnologia MultiCortex, disponibilizo as principais novidades desta versão.

📈 Maior cobertura em Gen AI e integração com frameworks para minimizar alterações no código:

  • Novos modelos suportados: Phi-4 Mini, Jina CLIP v1 e Bce Embedding Base v1.
  • O OpenVINO™ Model Server agora suporta modelos VLM, incluindo Qwen2-VL, Phi-3.5-Vision e InternVL2.
  • OpenVINO GenAI agora inclui recursos de image-to-image e inpainting para pipelines baseados em transformers como Flux.1 e Stable Diffusion 3.
  • Prévia: O AI Playground agora utiliza o backend do OpenVINO GenAI para inferência altamente otimizada em PCs com IA.

🧠 Suporte ampliado para LLMs e novas técnicas de compressão:

  • Redução no tamanho do binário via otimização do plugin CPU e remoção do kernel GEMM.
  • Novos kernels otimizados para GPU melhoram o desempenho de modelos LSTM usados em reconhecimento de fala, modelagem de linguagem e previsão de séries temporais.
  • Prévia: Implementação de Token Eviction no GenAI reduz o uso de memória do KV Cache ao descartar tokens irrelevantes, útil para chatbots e geração de código.
  • Aceleração por NPU agora habilitada no OpenVINO Runtime e Model Server para modelos VLM em PCs com IA de baixa concorrência.

🌍 Mais portabilidade e desempenho para executar IA na borda, na nuvem ou localmente:

  • Suporte para os mais recentes processadores Intel® Core™ (série 2, codinome Bartlett Lake), Core™ 3 Processor N-series e Processor N-series (Twin Lake) no Windows.
  • Otimizações de LLM em processadores Intel® Core™ Ultra 200H com melhor latência do segundo token.
  • Paged Attention e Continuous Batching ativados por padrão no plugin GPU.
  • Prévia: Backend OpenVINO para Executorch trará inferência acelerada em CPUs, GPUs e NPUs Intel.

OpenVINO™ Runtime

Geral

  • Compressão de pesos agora pode ser feita com atraso para economizar memória.
  • Registro de extensões por frontend (nova API).
  • Tensors com mmap permitem leitura direta do disco com menos uso de memória (ex.: ao usar LoRa em GenAI).

Plugin de dispositivo CPU

  • Quantização dinâmica de camadas Fully Connected com pesos assimétricos ativada em AVX2.
  • Desempenho de LLMs com pesos comprimidos otimizado, especialmente na latência do primeiro token.
  • Suporte a fusão de projeção QKV e MLP em BF16 no Windows em plataformas AMX.
  • Kernel GEMM removido da biblioteca CPU.
  • Suporte a modelos FP8 (f8e4m3 e f8e5m2) aprimorado.

Plugin de dispositivo GPU

  • Latência do segundo token melhorada com otimizações no TLB e Group Query Attention.
  • Latência do primeiro token reduzida com Paged Attention.
  • Cache KV comprimido em Int8 ativado por padrão.
  • Desempenho de modelos VLM melhorado com extensões XMX.

Plugin de dispositivo NPU

  • Suporte a cache sem pesos e criptografia de blobs de LLMs.
  • Novas APIs para carregar modelos do cache com menor uso de memória.
  • Suporte a entrada/saída NF4 (4-bit NormalFloat).
  • Correções de bugs: modelos com estado e erros com zeContextDestroy.

API Python

  • Agora é possível criar Tensor diretamente a partir de uma imagem Pillow.
  • Redução no uso de memória em export_model, read_model, compile_model.

API Node.js

  • Bindings GenAI agora disponíveis no pacote genai-node no npm.

Suporte a Frameworks

PyTorch

  • Suporte ao PyTorch 2.6.
  • Tradutores comuns para operações em PyTorch, TensorFlow, ONNX e JAX.
  • Conversão de modelos FP8 e TTS com STFT/ISTFT ativada.

JAX

  • Suporte validado para JAX 0.5.2 e Flax 0.10.4.

Keras 3

  • Compatível com Keras 3.9.0.
  • Testes mais granulares por operação.

TensorFlow Lite

  • Suporte para modelos com tensores quantizados entre camadas em tempo de execução.

OpenVINO Model Server

Novos recursos principais:

  • Suporte a modelos VLM com batching contínuo e envio de imagens no contexto do chat.
  • Suporte a aceleração por NPU para geração de texto com endpoints de completions.

Melhorias gerais:

  • Modelos e grafos mediapipe agora iniciáveis via linha de comando.
  • Demonstração de escalabilidade com múltiplas instâncias.
  • Aumento do número de stop words permitido por requisição (4 → 16).
  • Integração com a extensão VS Code Continue.
  • Melhorias de desempenho para cargas de alta concorrência.

Mudanças críticas:

  • Servidor gRPC agora é opcional. É obrigatório passar --port ou --rest_port.
  • Correções em contexto de LLM (excede comprimento, erro se prompt muito longo, etc.).
  • Melhorias de segurança, estabilidade e suporte ao cancelamento sem streaming.

Limitações conhecidas:

  • Chat/completions só aceita imagens em base64, não em URL.

Neural Network Compression Framework (NNCF)

  • Suporte preview para Treinamento Ciente de Quantização (QAT) com LoRA em PyTorch (método FQ_LORA).
  • Novos métodos de compressão 4-bit para pesos em PyTorch.
  • Redução no tempo e uso de memória em compressão GPTQ e mista.
  • Novo tracing baseado em TorchFunctionMode.
  • Várias melhorias no backend TorchFX e adoção de quantizadores personalizados.
  • Suporte preview para backend OpenVINO no ExecuTorch.
  • Suporte a PyTorch 2.6.

OpenVINO Tokenizers

  • Suporte ao modelo de tokenização Unigram.
  • Compilação com ICU opcional para reduzir binário.
  • Ajuste dinâmico de max_length e padding com classe Tokenizer.
  • Dependência de fast_tokenizer removida.

OpenVINO GenAI

  • Métodos demorados liberam o GIL.
  • Suporte preview a Token Eviction.
  • Bindings C e JavaScript para LLMPipeline.
  • suporte aos modelos Phi-3-vision-128k-instruct e Phi-3.5-vision-instruct.
  • Novos pipelines de Image2image e Inpainting com FLUX e Stable Diffusion 3.
  • LLMPipeline agora usa Paged Attention por padrão.
  • Streaming ocorre em thread separada.
  • Template de chat aplicado mesmo com modo desativado (configurável).

the avatar of Alessandro de Oliveira Faria

Llama 4: Scout, Maverick e o poderoso Behemoth

A Meta acaba de revelar sua nova geração de modelos de linguagem Llama 4, com grandes avanços em visão, raciocínio, codificação e mitigação de vieses. A família é composta por três modelos principais: Llama 4 Scout, Llama 4 Maverick e o colossal Llama 4 Behemoth.

Llama 4 Scout: excelência multimodal

O Llama 4 Scout é destaque em tarefas visuais, com suporte para múltiplas imagens e alinhamento preciso entre o texto e regiões específicas da imagem (image grounding). Ele entende ações temporais em imagens e oferece respostas mais precisas em tarefas visuais complexas. Também supera modelos concorrentes em benchmarks de raciocínio, contexto longo e programação.

Llama 4 Maverick: versatilidade e performance

Codestilado a partir do modelo Behemoth, o Llama 4 Maverick é otimizado para oferecer alta performance com menor custo computacional. Ele se destaca em tarefas gerais, mantendo robustez, velocidade e compatibilidade com diversas plataformas (incluindo Hugging Face e Llama.com).

Behemoth: 2 trilhões de parâmetros de inteligência

O Llama 4 Behemoth é o maior e mais inteligente da linha. Com quase 2 trilhões de parâmetros e arquitetura mixture-of-experts (MoE), foi projetado para ensinar os modelos menores. Ele lidera em benchmarks de matemática, multilinguismo e visão, e seu treinamento envolveu infraestrutura de RL inovadora, com ganhos de eficiência de até 10x.

Foco em segurança e mitigação de riscos

A Meta reforçou o compromisso com segurança, incluindo ferramentas como:

  • Llama Guard: segurança de entrada/saída com base em taxonomias de risco;
  • Prompt Guard: detecção de prompts maliciosos ou injetados;
  • CyberSecEval: avaliações para mitigar riscos cibernéticos em IA.

Além disso, houve avanços no combate a vieses. O Llama 4 recusa menos responder questões polêmicas, é mais equilibrado nas respostas e apresenta viés político significativamente menor que o Llama 3.

Ecossistema Llama em expansão

Mais do que modelos, a Meta aposta em um ecossistema completo com código aberto, integração em nuvem, edge devices e colaborações com a comunidade. A nova geração Llama promete experiências mais seguras, rápidas e personalizadas — e já está disponível para desenvolvedores.

Mais informações : https://ai.meta.com/blog/llama-4-multimodal-intelligence/

the avatar of Alessandro de Oliveira Faria

Meetup Presencial OWASP SP

Olá!

Está chegando a hora de mais um meetup imperdível da OWASP São Paulo, e queremos muito contar com a sua presença!

📍 Local: Oracle Brasil – ao lado do Shopping Morumbi
📅 Data: 08 de abril de 2025
🕕 Horário: a partir das 18h30

Prepare-se para uma noite de alto nível com dois palestrantes de destaque no cenário de segurança da informação:

🎤 Michel Roitman – LATAM Master Principal Solution Engineer for Cybersecurity na Oracle
🎤 Marcon, Marcelo – IT Specialist e 1º Tenente R2 do Exército Brasileiro – trazendo uma visão estratégica e técnica sobre cibersegurança no setor público e privado

👉 Garanta já sua vaga: https://4soci.al/owaspsp

A confirmação da sua inscrição nos ajuda a dimensionar melhor o nosso coffee break e garantir uma experiência ainda mais completa para todos os participantes.

Participe, conecte-se com a comunidade e fique por dentro das tendências que estão moldando o futuro da segurança digital!

Esperamos você lá!

Equipe OWASP São Paulo

the avatar of Alessandro de Oliveira Faria

Gemma 3 testado na MultiCortex

A MultiCortex testou o Gemma 3, uma família de modelos de IA abertos e avançados, desenvolvidos para serem executados diretamente em dispositivos, desde smartphones até estações de trabalho. Construído com a mesma tecnologia que alimenta os modelos Gemini 2.0, o Gemma 3 está disponível em tamanhos que variam de 1B a 27B parâmetros, permitindo aos desenvolvedores escolher o modelo que melhor se adapta às suas necessidades de hardware e desempenho.

O Gemma 3 oferece suporte a mais de 140 idiomas e possui capacidades avançadas de análise de texto, imagens e vídeos curtos. Com uma janela de contexto expandida para 128 mil tokens, permite o processamento de grandes volumes de informação e suporta chamadas de função para automatizar tarefas complexas. Além disso, versões quantizadas do Gemma 3 estão disponíveis, reduzindo o tamanho do modelo e os requisitos computacionais, mantendo alta precisão.

Para promover o desenvolvimento responsável de IA, o Gemma 3 foi projetado com protocolos de segurança rigorosos, incluindo o lançamento do ShieldGemma 2, um verificador de segurança de imagens que classifica conteúdos potencialmente explícitos, perigosos ou violentos. O Gemma 3 integra-se facilmente a ferramentas populares como Hugging Face Transformers, JAX, Keras e PyTorch, e pode ser implantado em diversas plataformas, incluindo Vertex AI e ambientes locais. A Google também lançou o programa acadêmico Gemma 3, oferecendo créditos em nuvem para pesquisadores que buscam acelerar suas pesquisas utilizando o Gemma 3.

Fonte: https://blog.google/technology/developers/gemma-3/

the avatar of Alessandro de Oliveira Faria

HOJE : OWASP SP – Meetup Virtual – 2025

No primeiro Meetup de 2025 efetuado pela OWASP SP, teremos a presença do Ricardo Martins (Security Researcher). O título da sua palesta é: Trusted Exploits: Escalando Ataques Usando Superfícies Confiáveis e Bypass de WAFs. Onde será explorado como atacantes utilizam superfícies confiáveis para bypassar WAFs e escalar ataques a partir de vulnerabilidades subestimadas, como Open Redirects, HTML Injection e XSS. Serão apresentados cenários reais onde empresas aceitam determinadas falhas, permitindo que invasores abusem da confiança em domínios legítimos para explorar aplicações de forma avançada. Além disso, discutiremos técnicas modernas de elevação de injeção, mostrando como pequenas brechas podem se tornar vetores críticos para comprometimento de sistemas.

Quando: Terça-feira, 11 de março de 2025 – 19:00 até 20:00 BRT