Skip to main content

the avatar of Alessandro de Oliveira Faria

GLM 4 outra super IA entre nós.

*** Imagem ilustrativa

Faz 4 horas que a nova geração da família GLM acaba de ser lançada, e o modelo GLM-4-32B-0414 está dando o que falar! Com incríveis 32 bilhões de parâmetros, essa IA open-source se posiciona no mesmo nível de gigantes como GPT-4o e DeepSeek-V3, superando-os em vários benchmarks – tudo isso com código aberto e licença MIT! 🔥

🔹 Destaques do GLM-4-32B:

  • Treinado com 15 trilhões de tokens de dados de alta qualidade, incluindo dados sintéticos focados em raciocínio.
  • Otimizado com rejection sampling e reforço por RL para tarefas de agentes, código, chamadas de função e busca com Q&A.
  • Supera modelos como GPT-4o, Qwen2.5-Max e DeepSeek em testes como IFEval (87.6), TAU-Bench e SimpleQA.
  • Equivalência com GPT-4o em chamadas de função (BFCL-v3).
  • Suporte nativo ao Hugging Face Transformers desde o primeiro dia.

🧠 GLM-Z1-32B-0414Raciocínio profundo e preciso
Versão turbinada para lógica, matemática e programação. Desenvolvido com técnicas avançadas de RL e feedback por ranking pareado, esse modelo é ideal para tarefas complexas.

🌀 GLM-Z1-Rumination-32B-0414Pensamento prolongado, estilo pesquisa
Perfeito para problemas abertos e análises profundas (como comparar estratégias de IA entre cidades). Integra ferramentas de busca e múltiplas recompensas para gerar respostas mais inteligentes e fundamentadas.

💡 GLM-Z1-9B-0414Pequeno notável
Mesmo com apenas 9B de parâmetros, essa versão mantém performance de ponta em raciocínio matemático e geral, sendo excelente para cenários com recursos limitados.

🔓 Todos os modelos estão disponíveis no Hugging Face Hub com integração total aos Transformers — prontos para uso local, sem complicações.


🌐 Se você curte IA open-source, raciocínio complexo e desempenho comparável aos maiores modelos do mercado, GLM-4 é sua próxima parada. Bora testar esse titã dos algoritmos?

#GLM4 #IAOpenSource #MachineLearning #DeepReasoning #Transformers #AGI #GLMZ1 #AIForAll

the avatar of Alessandro de Oliveira Faria

Feliz dia quântico!

O Dia Mundial do Quântico é celebrado anualmente no dia 14 de abril. A escolha desta data não é aleatória: ela faz referência à notação 4,14, que representa os dígitos iniciais, de forma arredondada, da constante de Planck — um dos pilares fundamentais da física quântica.

Essa constante, cujo valor exato é 4,1356677 × 10⁻¹⁵ elétron-volt segundo (eV·s), estabelece a relação entre a energia de uma partícula e a frequência da sua onda associada.

Em termos simples, trata-se de um valor extremamente pequeno, equivalente a 0,000 000 000 000 004 1356677 eV·s, e é essencial para descrever o comportamento das partículas subatômicas. Assim, o dia 14/4 simboliza a grandiosidade do infinitamente pequeno, homenageando a revolução científica trazida pela mecânica quântica.

the avatar of Alessandro de Oliveira Faria

OpenVINO 2025.1.0 Lançado

Como mantenedor do OpenVINO na distribuição OpenSUSE for INNOVATORS base de tecnologia MultiCortex, disponibilizo as principais novidades desta versão.

📈 Maior cobertura em Gen AI e integração com frameworks para minimizar alterações no código:

  • Novos modelos suportados: Phi-4 Mini, Jina CLIP v1 e Bce Embedding Base v1.
  • O OpenVINO™ Model Server agora suporta modelos VLM, incluindo Qwen2-VL, Phi-3.5-Vision e InternVL2.
  • OpenVINO GenAI agora inclui recursos de image-to-image e inpainting para pipelines baseados em transformers como Flux.1 e Stable Diffusion 3.
  • Prévia: O AI Playground agora utiliza o backend do OpenVINO GenAI para inferência altamente otimizada em PCs com IA.

🧠 Suporte ampliado para LLMs e novas técnicas de compressão:

  • Redução no tamanho do binário via otimização do plugin CPU e remoção do kernel GEMM.
  • Novos kernels otimizados para GPU melhoram o desempenho de modelos LSTM usados em reconhecimento de fala, modelagem de linguagem e previsão de séries temporais.
  • Prévia: Implementação de Token Eviction no GenAI reduz o uso de memória do KV Cache ao descartar tokens irrelevantes, útil para chatbots e geração de código.
  • Aceleração por NPU agora habilitada no OpenVINO Runtime e Model Server para modelos VLM em PCs com IA de baixa concorrência.

🌍 Mais portabilidade e desempenho para executar IA na borda, na nuvem ou localmente:

  • Suporte para os mais recentes processadores Intel® Core™ (série 2, codinome Bartlett Lake), Core™ 3 Processor N-series e Processor N-series (Twin Lake) no Windows.
  • Otimizações de LLM em processadores Intel® Core™ Ultra 200H com melhor latência do segundo token.
  • Paged Attention e Continuous Batching ativados por padrão no plugin GPU.
  • Prévia: Backend OpenVINO para Executorch trará inferência acelerada em CPUs, GPUs e NPUs Intel.

OpenVINO™ Runtime

Geral

  • Compressão de pesos agora pode ser feita com atraso para economizar memória.
  • Registro de extensões por frontend (nova API).
  • Tensors com mmap permitem leitura direta do disco com menos uso de memória (ex.: ao usar LoRa em GenAI).

Plugin de dispositivo CPU

  • Quantização dinâmica de camadas Fully Connected com pesos assimétricos ativada em AVX2.
  • Desempenho de LLMs com pesos comprimidos otimizado, especialmente na latência do primeiro token.
  • Suporte a fusão de projeção QKV e MLP em BF16 no Windows em plataformas AMX.
  • Kernel GEMM removido da biblioteca CPU.
  • Suporte a modelos FP8 (f8e4m3 e f8e5m2) aprimorado.

Plugin de dispositivo GPU

  • Latência do segundo token melhorada com otimizações no TLB e Group Query Attention.
  • Latência do primeiro token reduzida com Paged Attention.
  • Cache KV comprimido em Int8 ativado por padrão.
  • Desempenho de modelos VLM melhorado com extensões XMX.

Plugin de dispositivo NPU

  • Suporte a cache sem pesos e criptografia de blobs de LLMs.
  • Novas APIs para carregar modelos do cache com menor uso de memória.
  • Suporte a entrada/saída NF4 (4-bit NormalFloat).
  • Correções de bugs: modelos com estado e erros com zeContextDestroy.

API Python

  • Agora é possível criar Tensor diretamente a partir de uma imagem Pillow.
  • Redução no uso de memória em export_model, read_model, compile_model.

API Node.js

  • Bindings GenAI agora disponíveis no pacote genai-node no npm.

Suporte a Frameworks

PyTorch

  • Suporte ao PyTorch 2.6.
  • Tradutores comuns para operações em PyTorch, TensorFlow, ONNX e JAX.
  • Conversão de modelos FP8 e TTS com STFT/ISTFT ativada.

JAX

  • Suporte validado para JAX 0.5.2 e Flax 0.10.4.

Keras 3

  • Compatível com Keras 3.9.0.
  • Testes mais granulares por operação.

TensorFlow Lite

  • Suporte para modelos com tensores quantizados entre camadas em tempo de execução.

OpenVINO Model Server

Novos recursos principais:

  • Suporte a modelos VLM com batching contínuo e envio de imagens no contexto do chat.
  • Suporte a aceleração por NPU para geração de texto com endpoints de completions.

Melhorias gerais:

  • Modelos e grafos mediapipe agora iniciáveis via linha de comando.
  • Demonstração de escalabilidade com múltiplas instâncias.
  • Aumento do número de stop words permitido por requisição (4 → 16).
  • Integração com a extensão VS Code Continue.
  • Melhorias de desempenho para cargas de alta concorrência.

Mudanças críticas:

  • Servidor gRPC agora é opcional. É obrigatório passar --port ou --rest_port.
  • Correções em contexto de LLM (excede comprimento, erro se prompt muito longo, etc.).
  • Melhorias de segurança, estabilidade e suporte ao cancelamento sem streaming.

Limitações conhecidas:

  • Chat/completions só aceita imagens em base64, não em URL.

Neural Network Compression Framework (NNCF)

  • Suporte preview para Treinamento Ciente de Quantização (QAT) com LoRA em PyTorch (método FQ_LORA).
  • Novos métodos de compressão 4-bit para pesos em PyTorch.
  • Redução no tempo e uso de memória em compressão GPTQ e mista.
  • Novo tracing baseado em TorchFunctionMode.
  • Várias melhorias no backend TorchFX e adoção de quantizadores personalizados.
  • Suporte preview para backend OpenVINO no ExecuTorch.
  • Suporte a PyTorch 2.6.

OpenVINO Tokenizers

  • Suporte ao modelo de tokenização Unigram.
  • Compilação com ICU opcional para reduzir binário.
  • Ajuste dinâmico de max_length e padding com classe Tokenizer.
  • Dependência de fast_tokenizer removida.

OpenVINO GenAI

  • Métodos demorados liberam o GIL.
  • Suporte preview a Token Eviction.
  • Bindings C e JavaScript para LLMPipeline.
  • suporte aos modelos Phi-3-vision-128k-instruct e Phi-3.5-vision-instruct.
  • Novos pipelines de Image2image e Inpainting com FLUX e Stable Diffusion 3.
  • LLMPipeline agora usa Paged Attention por padrão.
  • Streaming ocorre em thread separada.
  • Template de chat aplicado mesmo com modo desativado (configurável).

the avatar of Alessandro de Oliveira Faria

Llama 4: Scout, Maverick e o poderoso Behemoth

A Meta acaba de revelar sua nova geração de modelos de linguagem Llama 4, com grandes avanços em visão, raciocínio, codificação e mitigação de vieses. A família é composta por três modelos principais: Llama 4 Scout, Llama 4 Maverick e o colossal Llama 4 Behemoth.

Llama 4 Scout: excelência multimodal

O Llama 4 Scout é destaque em tarefas visuais, com suporte para múltiplas imagens e alinhamento preciso entre o texto e regiões específicas da imagem (image grounding). Ele entende ações temporais em imagens e oferece respostas mais precisas em tarefas visuais complexas. Também supera modelos concorrentes em benchmarks de raciocínio, contexto longo e programação.

Llama 4 Maverick: versatilidade e performance

Codestilado a partir do modelo Behemoth, o Llama 4 Maverick é otimizado para oferecer alta performance com menor custo computacional. Ele se destaca em tarefas gerais, mantendo robustez, velocidade e compatibilidade com diversas plataformas (incluindo Hugging Face e Llama.com).

Behemoth: 2 trilhões de parâmetros de inteligência

O Llama 4 Behemoth é o maior e mais inteligente da linha. Com quase 2 trilhões de parâmetros e arquitetura mixture-of-experts (MoE), foi projetado para ensinar os modelos menores. Ele lidera em benchmarks de matemática, multilinguismo e visão, e seu treinamento envolveu infraestrutura de RL inovadora, com ganhos de eficiência de até 10x.

Foco em segurança e mitigação de riscos

A Meta reforçou o compromisso com segurança, incluindo ferramentas como:

  • Llama Guard: segurança de entrada/saída com base em taxonomias de risco;
  • Prompt Guard: detecção de prompts maliciosos ou injetados;
  • CyberSecEval: avaliações para mitigar riscos cibernéticos em IA.

Além disso, houve avanços no combate a vieses. O Llama 4 recusa menos responder questões polêmicas, é mais equilibrado nas respostas e apresenta viés político significativamente menor que o Llama 3.

Ecossistema Llama em expansão

Mais do que modelos, a Meta aposta em um ecossistema completo com código aberto, integração em nuvem, edge devices e colaborações com a comunidade. A nova geração Llama promete experiências mais seguras, rápidas e personalizadas — e já está disponível para desenvolvedores.

Mais informações : https://ai.meta.com/blog/llama-4-multimodal-intelligence/

the avatar of Alessandro de Oliveira Faria

Meetup Presencial OWASP SP

Olá!

Está chegando a hora de mais um meetup imperdível da OWASP São Paulo, e queremos muito contar com a sua presença!

📍 Local: Oracle Brasil – ao lado do Shopping Morumbi
📅 Data: 08 de abril de 2025
🕕 Horário: a partir das 18h30

Prepare-se para uma noite de alto nível com dois palestrantes de destaque no cenário de segurança da informação:

🎤 Michel Roitman – LATAM Master Principal Solution Engineer for Cybersecurity na Oracle
🎤 Marcon, Marcelo – IT Specialist e 1º Tenente R2 do Exército Brasileiro – trazendo uma visão estratégica e técnica sobre cibersegurança no setor público e privado

👉 Garanta já sua vaga: https://4soci.al/owaspsp

A confirmação da sua inscrição nos ajuda a dimensionar melhor o nosso coffee break e garantir uma experiência ainda mais completa para todos os participantes.

Participe, conecte-se com a comunidade e fique por dentro das tendências que estão moldando o futuro da segurança digital!

Esperamos você lá!

Equipe OWASP São Paulo

the avatar of Alessandro de Oliveira Faria

Gemma 3 testado na MultiCortex

A MultiCortex testou o Gemma 3, uma família de modelos de IA abertos e avançados, desenvolvidos para serem executados diretamente em dispositivos, desde smartphones até estações de trabalho. Construído com a mesma tecnologia que alimenta os modelos Gemini 2.0, o Gemma 3 está disponível em tamanhos que variam de 1B a 27B parâmetros, permitindo aos desenvolvedores escolher o modelo que melhor se adapta às suas necessidades de hardware e desempenho.

O Gemma 3 oferece suporte a mais de 140 idiomas e possui capacidades avançadas de análise de texto, imagens e vídeos curtos. Com uma janela de contexto expandida para 128 mil tokens, permite o processamento de grandes volumes de informação e suporta chamadas de função para automatizar tarefas complexas. Além disso, versões quantizadas do Gemma 3 estão disponíveis, reduzindo o tamanho do modelo e os requisitos computacionais, mantendo alta precisão.

Para promover o desenvolvimento responsável de IA, o Gemma 3 foi projetado com protocolos de segurança rigorosos, incluindo o lançamento do ShieldGemma 2, um verificador de segurança de imagens que classifica conteúdos potencialmente explícitos, perigosos ou violentos. O Gemma 3 integra-se facilmente a ferramentas populares como Hugging Face Transformers, JAX, Keras e PyTorch, e pode ser implantado em diversas plataformas, incluindo Vertex AI e ambientes locais. A Google também lançou o programa acadêmico Gemma 3, oferecendo créditos em nuvem para pesquisadores que buscam acelerar suas pesquisas utilizando o Gemma 3.

Fonte: https://blog.google/technology/developers/gemma-3/

the avatar of Alessandro de Oliveira Faria

HOJE : OWASP SP – Meetup Virtual – 2025

No primeiro Meetup de 2025 efetuado pela OWASP SP, teremos a presença do Ricardo Martins (Security Researcher). O título da sua palesta é: Trusted Exploits: Escalando Ataques Usando Superfícies Confiáveis e Bypass de WAFs. Onde será explorado como atacantes utilizam superfícies confiáveis para bypassar WAFs e escalar ataques a partir de vulnerabilidades subestimadas, como Open Redirects, HTML Injection e XSS. Serão apresentados cenários reais onde empresas aceitam determinadas falhas, permitindo que invasores abusem da confiança em domínios legítimos para explorar aplicações de forma avançada. Além disso, discutiremos técnicas modernas de elevação de injeção, mostrando como pequenas brechas podem se tornar vetores críticos para comprometimento de sistemas.

Quando: Terça-feira, 11 de março de 2025 – 19:00 até 20:00 BRT

the avatar of Alessandro de Oliveira Faria

OpenVINO 2025.0.0 lançado!

Este mês de fevereiro foi lançado o openVINO 20.25.0.0, abaixo as novidades:

Maior cobertura de GenAI e integrações de frameworks para minimizar alterações no código.

  • Novos modelos suportados: Qwen 2.5, Deepseek-R1-Distill-Llama-8B, DeepSeek-R1-Distill-Qwen-7B, DeepSeek-R1-Distill-Qwen-1.5B, FLUX.1 Schnell e FLUX.1 Dev.
  • Modelo Whisper: Melhor desempenho em CPUs, GPUs integradas e GPUs discretas com a API GenAI.
  • Prévia: Introdução do suporte a NPU para torch.compile, permitindo que desenvolvedores usem o backend OpenVINO para executar a API do PyTorch em NPUs. Mais de 300 modelos de deep learning habilitados dos repositórios TorchVision, Timm e TorchBench.

Suporte mais amplo para Modelos de Linguagem (LLMs) e mais técnicas de compressão de modelos.

  • Prévia: Adição de Prompt Lookup à API GenAI, melhorando a latência do segundo token para LLMs por meio da utilização eficaz de prompts predefinidos.
  • Prévia: A API GenAI agora oferece funcionalidade de inpainting de imagem para imagem, permitindo que os modelos gerem conteúdo realista modificando partes específicas e integrando-as à imagem original.
  • Compressão de Cache KV Assimétrica agora ativada para INT8 em CPUs, reduzindo o consumo de memória e melhorando a latência do segundo token, especialmente para prompts longos.

Maior portabilidade e desempenho para executar IA na borda, na nuvem ou localmente.

  • Suporte aos processadores mais recentes da série Intel® Core™ Ultra 200H (codinome Arrow Lake-H).
  • Integração do backend OpenVINO™ com o Triton Inference Server, melhorando a inferência em CPUs Intel.
  • Prévia: Integração com o backend OpenVINO no Keras 3, permitindo inferência otimizada em CPUs, GPUs integradas, GPUs discretas e NPUs no Keras 3.8.
  • O OpenVINO Model Server agora suporta implementações nativas no Windows Server, eliminando a sobrecarga de contêineres e simplificando a implantação de GPUs.

Funcionalidades Descontinuadas

  • Prefixos legados l_, w_ e m_ foram removidos dos nomes de arquivos do OpenVINO.
  • O namespace de runtime para a API Python foi marcado como obsoleto e será removido na versão 2026.0.
  • Método create_compressed_model() do NNCF foi descontinuado. Agora, recomenda-se o uso de nncf.quantize() para Treinamento Consciente de Quantização em modelos PyTorch e TensorFlow.

OpenVINO™ Runtime

Suporte Comum

  • Habilitado suporte ao Python 3.13 no OpenVINO Runtime.
  • Correção do modo de inferência AUTO, que não carregava modelos para NPU em processadores Intel® Core™ Ultra 200V.
  • Correção de falhas ao sair de aplicativos com ov::CompiledModel, ov::InferRequest ou ov::Model definidos como variáveis estáticas.

Plugin para CPU

  • Suporte completo aos processadores Intel® Core™ Ultra 200H.
  • Compressão Assimétrica do Cache KV 8bit ativada por padrão para modelos de linguagem, reduzindo o consumo de memória e melhorando a inferência.
  • Suporte opcional à compressão de Cache KV 4bit para economia ainda maior de memória.
  • Melhoria no desempenho de modelos FP16 na 6ª geração dos Intel® Xeon®, com melhor uso do AMX FP16.
  • Melhoria na performance de modelos LLM ao usar APIs GenAI do OpenVINO com batching contínuo.
  • Suporte a sistemas com núcleos de CPU desativados, usados em virtualização e sistemas em tempo real.

Plugin para GPU

  • Melhoria na inferência de modelos de linguagem com ScaledDotProductAttention (SDPA), otimizando prompts longos (>4k tokens).
  • Suporte a modelos com estado, melhorando o desempenho do Whisper em todas as plataformas de GPU.
  • Correção do problema de saída preta para modelos de geração de imagem em FP16, incluindo SDXL, SD3 e FLUX.1.

Plugin para NPU

  • Otimização de desempenho para modelos LLM quantizados simetricamente em 4-bit (INT4), incluindo Llama2-7B-chat, Llama3-8B-instruct, Qwen-2-7B, Mistral-0.2-7B-Instruct, Phi-3-Mini-4K-Instruct, MiniCPM-1B.
  • Prévia: Suporte a torch.compile com OpenVINO no PyTorch em NPUs.

APIs e Frameworks

OpenVINO Python API

  • Ov:OpExtension agora disponível, permitindo experimentação com operadores customizados em Python.
  • Classe Constant expandida, adicionando métodos get_tensor_view e get_strides para manipulação avançada de tensores.

OpenVINO Node.js API

  • Bindings de tokenizer para JavaScript disponíveis via npm.

Suporte ao TensorFlow

  • Correções no TensorListLength, ToBool e UniqueWithCounts.

Suporte ao PyTorch

  • Prévia: Conversão de modelos PyTorch com compressão de pesos AWQ, incluindo SauerkrautLM-Mixtral-8x7B-AWQ.

Suporte ao Keras 3

  • Prévia: Inferência apenas com OpenVINO no Keras 3.8. Para ativar, defina KERAS_BACKEND=openvino.

OpenVINO Model Server

  • Implementação nativa no Windows Server.
  • Suporte a endpoints generativos compatíveis com OpenAI API.
  • Desempenho otimizado para Intel® Arc™ B-Series Graphics.
  • Migração para Ubuntu 24 e Red Hat UBI 9.
  • Suporte a truncamento no endpoint de embeddings.
  • Decodificação especulativa adicionada para geração de texto.
  • Correção de bugs no cancelamento de geração de texto e detecção do contexto do modelo.

Compressão de Redes Neurais (NNCF)

  • Redução no tempo de quantização pós-treinamento com Fast Bias Correction.
  • Novo método quantize_pt2e() para quantização precisa de modelos Torch FX.
  • Novo OpenVINOQuantizer para modelos PyTorch 2 quantizados.
  • Método nncf.quantize() agora recomendado para Treinamento Consciente de Quantização (QAT).

OpenVINO Tokenizers

  • Suporte aos modelos: GLM Edge, ModernBERT, BART-G2P.
  • Validação UTF-8 ativada por padrão no detokenizer.

OpenVINO GenAI

  • Adicionados novos modelos: FLUX.1-Schnell, Flux.1-Lite-8B-Alpha, FLUX.1-Dev e Shuttle-3-Diffusion.
  • Suporte a Qwen2VL no VLMPipeline.
  • Pipelines de Geração de Imagem: Image2Image e Inpainting, otimizados para modelos baseados em Unet.
  • T5 Encoder adicionado ao pipeline SD3.

Problemas Conhecidos

  • Conversão de modelos TensorFlow Object Detection para IR resulta em baixo desempenho. Use o MO da versão 2024.6 ou anterior.
  • Erro na conversão de ONNX com openvino-tokenizers. Solução: desinstalar openvino-tokenizers antes da conversão.
  • Falha de segmentação ao quantizar modelos no Intel® Core™ Ultra 200V. Solução: export DNNL_MAX_CPU_ISA=AVX2_VNNI.
  • Degradação de precisão em modelos como YOLOv5, mobilenet-v3 e modnet. Use o OpenVINO 2024.6.

Funcionalidades em Descontinuação

  • Ubuntu 20.04 será descontinuado.
  • openvino-nightly será substituído pelo Simple PyPI nightly repo.
  • Suporte ao MacOS x86 será removido em 2025.
  • Nova estrutura do namespace OpenVINO Python para 2026.

Isso cobre todas as novidades e mudanças do OpenVINO! 🚀

the avatar of Alessandro de Oliveira Faria

OWASP SP – 2025

A OWASP São Paulo é um dos capítulos brasileiros entre os mais de 270 capítulos ativos ao redor do mundo. Nosso propósito é promover a missão da OWASP, tornando a segurança de aplicações mais acessível e compreensível, para que indivíduos e organizações possam tomar decisões informadas sobre os reais riscos envolvidos.

Em 2025, contamos com um novo Chapter Leader, Carlos Augusto Souza Carvalho, e juntos realizaremos encontros para fomentar o compartilhamento de conhecimento, a troca de experiências e o aprendizado contínuo sobre segurança de software.

Abaixo a estrutura atual da OWASP SP:

Alessandro (Cabelo) de Oliveira Faria : Leader
Cofundador da empresa MultiCortex, OITI TECHNOLOGIES e da iniciativa Global openSUSE Linux INNOVATOR, membro fundador do Instituto Fóton+ de Tecnologias Quânticas, Autodidata, Pesquisador, entusiasta por inovação desde 1983 (aos 11 anos). Leva Linux a sério desde 1998 junto com pesquisas e trabalhos em biometria e visão computacional. Experiência com biometria facial desde 2003, redes neurais artificiais e neurotecnologia desde 2009. Inventor da tecnologia CERTIFACE, Linux HPC EXO AI, mais de 200 palestras ministradas, 14 artigos impressos publicados, mais de 9 milhões de acessos nos 120 artigos publicados no portal Viva O Linux, Mentor Cybersecuritygirls BR , Docente na FIA, Membro Oficial e Embaixador OpenSUSE Linux Latin America, Chapter Leader OWASP SP, Colunista Técnico, Engenheiro openSUSE Linux AWS, Global Innovator Intel, Membro Notável I2AI, Membro do Conselho Consultivo da ABRIA, Embaixador de Inovação Credicitrus, Innovation Advisor do Peck Advogados e Global Intel Innovator Champion 2024 e 2025.

Carlos Augusto Souza Carvalho : Leader
Sólida experiência em Infraestrutura de TI, com ênfase em redes corporativas (on premisses, híbridas e cloud AWS, GCP, Azure e Oracle Cloud), administração de sistemas operacionais linux e windows e Segurança da Informação, atuando em empresas de médio e grande porte e com destaque no mercado há dezoito anos. Boa capacidade de interlocução (professor de informática por seis anos) e planejamento (coordenador por dois anos de treinamento profissional e gestão de implantação de ti).

Ricardo Martins: Board Members
rofissional de segurança cibernética com expertise em implementação de políticas de segurança da informação baseadas nas normas ISO 27001 e ISO 27701, e análise forense de malware. Líder de equipe na ResolveSec, orquestrando soluções de segurança para proteger dados, sistemas e reputações contra ameaças cibernéticas. Certificada em aplicativos web, com conquistas em competições de segurança como CTF (RoadSec) e HackaFlag. Apaixonada por novas tecnologias, também atua como palestrante, publicadora e mentora, compartilhando conhecimentos e insights sobre segurança cibernética

Ines Brosso : Board Members
Profissional experiente em Tecnologia de Segurança da Informação nas áreas Financeira e Industrial com histórico comprovado de trabalho em academia de ensino superior realizando pesquisas, eventos e publicações. Profissional de educação sólida, qualificada em Projetos de Análise de Segurança, Segurança em Nuvem, Big Data, Biometria, Ciência da Computação, Inteligência Artificial, Aprendizado de Máquina, Segurança de Rede, Segurança de Computador Quântico e Membro da OWASP São Paulo.

Christiano Linuxmen: Board Members
Com mais de duas décadas de experiência, sou um Consultor na Ápice Solutions, especializado em DevOps, automação de infraestrutura e segurança da informação. Neste papel, eu aplico minhas habilidades em ferramentas como Ansible, Docker e Zabbix para otimizar operações de cloud e garantir a integridade dos sistemas. A minha missão é fortalecer os ambientes de TI através de práticas ágeis e seguras, contribuindo para o crescimento sustentável da organização. Fundador do Papo de Sysadmin e Líder do AWS User Group Interior de São Paulo, eu me orgulho em promover uma comunidade mais segura e informada, utilizando minha expertise para impactar positivamente nesses ecossistemas.

Eduardo Neves: Board Members
Ajudo especialistas em DevOps e SRE a se tornarem mestres da observabilidade. Nossa comunidade é mais do que excelente, é uma família comprometida em compartilhar conhecimento e apoiar uns aos outros. O conteúdo aqui é cuidadosamente desenvolvido, com cases reais e estudos que apoiarão sua carreira. Além disso, a didática é objetiva, garantindo uma experiência de aprendizado envolvente e eficiente.
Membro ativo nas comunidades opensource desde 1997, trabalhou em diversos setores da economia, como financeiras, seguradoras, e-commerces, portais de internet. Também ja atuou nas mais diversas esferas do Governo, tanto Federal, Estadual e Municipal. Palestrante em mais de 80 eventos nacionais e internacionais. Atualmente atua nas comunidades Papo de SysAdmin e elastic campinas.