Lançado openVINO 2024.2
Em 18 de junho, foi lançado a versáo 2024.2 do OpenVINO, um kit de ferramentas de código aberto para otimizar e implantar modelos de aprendizagem profunda da nuvem até a borda. Ele acelera a inferência de aprendizado profundo em vários casos de uso, como IA generativa, vídeo, áudio e linguagem com modelos de estruturas populares como PyTorch, TensorFlow, ONNX e muito mais. Converta e otimize modelos e implante em uma combinação de hardware e ambientes Intel®, no local e no dispositivo, no navegador ou na nuvem.

Abaixo as principais mudanças.
Maior cobertura nas tecnologias de IA de última geração e integrações de frameworks para minimizar mudanças de código:
- Otimizações Llama 3 para CPUs, GPUs integradas e GPUs discretas para melhor desempenho e uso eficiente de memória.
- Suporte para Phi-3-mini, uma família de modelos de IA que aproveita o poder de modelos de linguagem pequenos para processamento de texto mais rápido, preciso e econômico.
- Operação Personalizada Python agora habilitada no OpenVINO, facilitando para desenvolvedores Python programarem suas operações personalizadas em vez de operações personalizadas em C++ (também suportadas). A Operação Personalizada Python permite aos usuários implementar suas próprias operações especializadas em qualquer modelo.
- Expansão de notebooks para garantir melhor cobertura para novos modelos. Notebooks notáveis adicionados: DynamiCrafter, YOLOv10, notebook de Chatbot com Phi-3 e QWEN2.
Maior suporte a Modelos de Linguagem de Grande Escala (LLM) e mais técnicas de compressão de modelos:
- Método GPTQ para compressão de pesos de 4 bits adicionado ao NNCF para inferência mais eficiente e desempenho melhorado de LLMs comprimidos.
- Melhorias significativas no desempenho de LLM e redução de latência para GPUs integradas e discretas.
- Melhoria significativa na latência do segundo token e na pegada de memória de LLMs com pesos FP16 em plataformas de CPU baseadas em AVX2 (processadores Intel® Core
de 13ª Geração) e AVX512 (Processadores Escaláveis Intel® Xeon® de 3ª Geração), especialmente para tamanhos de lotes pequenos.
Maior portabilidade e desempenho para executar IA na borda, na nuvem ou localmente:
- Aprimoramentos no Serviço de Modelos:
- Prévia: OpenVINO Model Server (OVMS) agora suporta API compatível com OpenAI juntamente com Batching Contínuo e PagedAttention, permitindo throughput significativamente maior para inferência paralela, especialmente em processadores Intel® Xeon®, ao servir LLMs para muitos usuários simultâneos.
- Backend OpenVINO para Triton Server agora suporta GPUs integradas e discretas, além de suporte a formas dinâmicas.
- Integração do TorchServe através do backend OpenVINO torch.compile para fácil implantação de modelos, provisionamento para múltiplas instâncias, versionamento de modelos e manutenção.
- Prévia: adição da API Generate, uma API simplificada para geração de texto usando modelos de linguagem de grande escala com apenas algumas linhas de código. A API está disponível através do novo pacote OpenVINO GenAI.
- Suporte para Processador Intel Atom® Série X. Para mais detalhes, veja Requisitos do Sistema.
- Prévia: Suporte para processador Intel® Xeon® 6.
Mais informações aqui: https://github.com/openvinotoolkit/openvino/releases/tag/2024.2.0
IA rodando em computador antigo de R$ 600,00
O governo recentemente declarou que a Inteligência Artificial (IA) não está ao alcance de todos, uma afirmação que reflete a obsolescência programada no mercado de tecnologia. No entanto, estou comprometido em assegurar que essa visão não se torne uma realidade, especialmente ao abordar o desafio contínuo da exclusão digital. Uma das principais barreiras é a obsolescência programada, que frequentemente restringe o uso de tecnologias modernas em computadores mais antigos. Assim, estou dedicando esforços para desenvolver soluções que contrariem essa tendência, permitindo que mais pessoas tenham acesso a ferramentas tecnológicas atualizadas sem a necessidade de equipamentos de última geração.
Na prática, isso se traduziu no desenvolvimento da imagem JAX Linux, que foi especialmente otimizada para melhorar o desempenho em máquinas mais antigas e novas. Utilizando técnicas avançadas como a extensão de vetorização, conseguimos fazer com que modelos de IA avançados, como o Mistral 7B, funcionem eficientemente em um computador i5 de 2016 com apenas 8GB de RAM e sem uma GPU de alta performance. Esse tipo de otimização é crucial para democratizar o acesso à IA, permitindo que mesmo hardware com especificações modestas possa executar tarefas computacionais intensivas sem comprometer significativamente a performance.
Os resultados desse projeto são notavelmente promissores, com testes mostrando que o uso máximo de recursos de hardware não ultrapassou 60%. Isso demonstra que é perfeitamente viável levar a inteligência artificial para indivíduos com recursos financeiros limitados. Essa conquista não apenas desafia a norma atual que associa a inovação em IA com equipamentos de ponta, mas também reforça o compromisso de tornar a tecnologia acessível para todos, independentemente de suas condições econômicas. Através desses esforços, estamos um passo mais perto de uma verdadeira democratização da inteligência artificial.
openSUSE 15.6 Lançado!

NUREMBERGUE, Alemanha – O lançamento do Leap 15.6 é oficial e abre caminho para que profissionais e organizações façam a transição para a distribuição empresarial do SUSE com suporte estendido ou se preparem para a próxima grande atualização, que será o Leap 16.
As demandas por sistemas operacionais robustos, seguros e estáveis no setor da infraestrutura digital estão mais críticas do que nunca. A combinação do Leap 15.6, desenvolvido pela comunidade, e do SUSE Linux Enterprise 15 Service Pack 6, que integra novos recursos e melhorias, oferece uma solução ótima para o gerenciamento de infraestrutura crítica. Notavelmente, as versões de suporte geral e de suporte estendido do SUSE; esses ciclos de vida de suporte ao produto duram muito além da vida útil do Leap 15, garantindo um serviço mais longo e confiável para os usuários.
O SLE 15 SP 6 é um lançamento de recurso, então os usuários podem esperar várias novas funcionalidades no lançamento do Leap 15.6.
Esse alinhamento garante que as empresas e os profissionais que utilizam o Leap para necessidades operacionais possam desfrutar de uma transição clara e apoiada para um ambiente empresarial, o que é crucial numa mudança para sistemas que requerem estabilidade a longo prazo e maior segurança. À medida que organizações traçam estratégias para suas melhorias, adotar uma solução de nível empresarial como o SUSE torna-se uma decisão estratégica, especialmente para aquelas que gerenciam redes extensas e dados críticos em vários setores.
Desde que foi lançado em 25 de maio de 2018, a série Leap 15.x recebeu diversas adições, como tecnologias de contêineres, sistemas imutáveis, virtualização, desenvolvimento embarcado, juntamente com outros avanços da alta tecnologia. Um aumento no uso versão após versão mostra que empreendedores, amadores, profissionais e desenvolvedores estão consistentemente escolhendo o Leap como distribuição Linux preferida.
O Leap 15.6 deve receber atualizações de manutenção e segurança até o final de 2025 para garantir suficiente sobreposição com a próxima versão. Isso dará aos usuários bastante tempo para atualizar para o sucessor dessa versão, que é o Leap 16, ou mudar para a versão de serviço de suporte estendido do SUSE. Usuários interessados em suporte comercial podem usar uma ferramenta de migração para migrar para a versão de suporte comercial do SUSE.
A inclusão do pacote Cockpit[1] no openSUSE Leap 15.6 representa uma melhoria significativa na capacidade de gerenciamento de sistemas e contêineres para os usuários. Essa integração no Leap 15.6 melhora a usabilidade e o acesso, além de ligar a administração avançada do sistema à operação fácil por meio do navegador. A adição ressalta o compromisso do openSUSE em fornecer ferramentas poderosas que atendem tanto profissionais quanto amadores. O Leap não vem com uma política SELinux, portanto os recursos do SELinux para o Cockpit não estão funcionando.
As tecnologias de contêineres recebem um reforço com o Podman 4.8, que inclui suporte sob medida para o Nextcloud por meio de quadlets, juntamente com as versões mais recentes do Distrobox, Docker, python-podman, Skopeo, containerd, libcontainers-common, garantindo um sistema robusto de gerenciamento de contêineres. As tecnologias de virtualização também foram melhoradas, apresentando atualizações para Xen 4.18, KVM 8.2.2, libvirt 10.0 e virt-manager 4.1.
A versão 15.6 do Leap incorpora várias atualizações importantes de software que melhoram o desempenho e a segurança. Ele integra Linux Kernel 6.4, que fornece backports para alguns dos drivers de hardware mais recentes, que oferecem melhorias de desempenho. O OpenSSL 3.1 se torna o novo padrão e fornece recursos de segurança robustos e algoritmos de criptografia atualizados. Os sistemas de gerenciamento de banco de dados recebem atualizações significativas com MariaDB 10.11.6 e PostgreSQL 16. Redis 7.2 oferece recursos avançados de manipulação de dados e a pilha de software é complementada com PHP 8.2 e Node.js 20; ambos receberam atualizações para melhor desempenho e segurança no desenvolvimento para a web. O Leap também terá o OpenJDK 21, fornecendo melhorias para melhor desempenho e segurança em aplicativos baseados em Java.
Atualizações no software de telecomunicações são vistas com DPDK 22.11, Open vSwitch 3.1 e OVN 23.03.
O ambiente KDE avança com a introdução do KDE Plasma 5.27.11, que é a versão mais recente com suporte estendido (Long Term Support, LTS), Qt 5.15.12+kde151 e KDE Frameworks 5.115.0, assim como Qt6 versão 6.6.3, facilitando a operação suave dos aplicativos com ligações Python atualizadas para PyQt5 e PyQt6 alinhadas com o Python 3.11.
Muitos pacotes Python que não recebiam manutenção foram removidos como parte da transição para o Python 3.11; mais detalhes podem ser encontrados nas notas de lançamento.
O GNOME 45 traz melhorias para a área de trabalho, adicionando recursos que elevam a experiência do usuário. As tecnologias de áudio passam por grandes atualizações com o lançamento do PulseAudio 17.0 e PipeWire 1.0.4, que melhoram a compatibilidade de hardware e a funcionalidade Bluetooth, incluindo indicadores de nível de bateria dos dispositivos.
Coletivamente, essas atualizações melhoram a estabilidade do sistema e a experiência do usuário e tornam o Leap 15.6 uma escolha atraente para profissionais, empresas e organizações.
O Leap pode ser baixado em get.opensuse.org.
Fim de vida
O openSUSE Leap 15.5 terá seu fim de vida (End of Life, EOL) seis meses a partir do lançamento de hoje. Seus usuários devem atualizar para o openSUSE Leap 15.6 dentro de seis meses a partir de hoje para continuar recebendo atualizações de segurança e manutenção.
Baixe o Leap 15.6
Para baixar a imagem ISO, visite https://get.opensuse.org/leap/.
Unique3D : Projeção de imagens 2D em 3D.
O projeto Unique3D é uma ferramenta de geração de malhas 3D de alta qualidade e eficiência, criada para funcionar a partir de uma única imagem. O processo envolve converter imagens ortográficas de um objeto em texturas e geometrias 3D detalhadas, usando uma abordagem de modelagem rápida que integra diversos avanços recentes em inteligência artificial. Essa técnica permite criar detalhes texturais e geométricos precisos de objetos complexos em questão de segundos, uma grande melhoria comparado a técnicas anteriores que demandavam mais tempo e não alcançavam a mesma fidelidade.
Com a evolução da IA no processamento 3D, acredito muito na inteligência artificial espacial, espera-se que no futuro ela transforme a maneira como interagimos com o espaço, desde a automatização de satélites até a exploração de planetas com robôs autônomos. Tecnologias de IA poderão processar dados de missões espaciais de forma mais eficiente, tomar decisões autônomas em tempo real e até mesmo adaptar-se a situações desconhecidas no ambiente espacial, potencializando as descobertas e a segurança das missões.
Informações sobre o projeto: https://github.com/AiuniAI/Unique3D
OpenCV 4.10.0 Lançada!

A biblioteca OpenCV lançou sua versão 4.10.0. Esta ferramenta, globalmente reconhecida e aplicada em diversos setores, foi originalmente apresentada ao mundo pela Intel no ano 2000. Hoje, conta com uma comunidade de mais de 47 mil contribuidores. E fiquei muito feliz de encontrar meu nome na lista de contribuidores deste release.
Abaixo alguns itens que merecem destaques:
- Added more DNN layers with OpenVINO
- Added CuDNN 9+ support
- Added OpenVINO 2024 support
- CUDA 12.4+ support
- OneAPI 2024 support (IPP, TBB)
Mais informações: https://opencv.org/blog/opencv-4-10-0/

Aprovado na AWS: openSUSE Leap 15.5 Mini!
Levando o Linux a sério desde 1998, adquiri experiência em sistema operacional GNU/Linux que permitiu construir, contribuir e disponibilizar a plataforma openSUSE Leap 15.4 Micro na nuvem AWS para todos gratuitamente em âmbito mundial (todas as regiões do mundo).
Utilizando trabalho de engenharia de software voltado para otimização de sistema GNU/Linux, disponibilizo a versão minimalista do openSUSE Leap 15.5 na AWS. Além de multi-uso, completa, estável e fácil de usar, destina-se a usuários, desenvolvedores, administradores, e qualquer profissional que deseja os recursos openSUSE no servidor. É ótimo para iniciantes, usuários experientes e ultra geeks, em resumo, é perfeito para todos!
O sistema operacional openSUSE Leap 15.5 Mini proporciona menos consumo de recursos computacionais. Com menos consumo de disco e memória e disco, este sistema operacional permite o uso de modestas maquinas virtuais como t3.micro sem comprometer o desempenho.
Sugestões em cabelo@opensuse.org
Informações aqui: https://aws.amazon.com/marketplace/pp/prodview-7gz3zn5r2uziy

A seguir as principais vantagens:
| Recursos | openSUSE Leap 15.5 | openSUSE Leap 15.5 Mini |
| Espaço em disco | 1,8G | 911M |
| Memória utilizada | 246M | 161M |
| Pacotes | 583 | 263 |
Codestral 3x menor supera LLAMA 3 70B

Mistral AI, a startup apoiada pela Microsoft, anuncia Codestral, seu novo modelo de programação. Codestral, com 22 bilhões de parâmetros e um comprimento de contexto de 32 mil, atua em mais de 80 linguagens de programação e supera o Code Llama 70B da Meta em diversos testes de comparação.
- Mistral AI apresenta Codestral, um modelo de código com 22 bilhões de parâmetros e 32 mil de comprimento de contexto.
- Codestral demonstra desempenho superior ao Code Llama 70B da Meta em várias avaliações.
- Está disponível em código aberto via HuggingFace ou no Le Chat da Mistra, estilo ChatGPT.
Nos últimos meses, Mistral AI emergiu como uma das startups de IA mais empolgantes. Recentemente, lançou seu primeiro modelo de código, o Codestral, fluentemente programado em mais de 80 linguagens.
Comparado às ofertas atuais do mercado, como o Code Llama 70B da Meta, lançado em agosto do ano passado e disponibilizado em código aberto este ano, Codestral se destaca de forma notável. Uma comparação lado a lado com outros modelos de IA para codificação revela essa superioridade.
Disponível em código aberto através do HuggingFace ou pelo Le Chat ao estilo ChatGPT da Mistra, Codestral apresenta melhores resultados no HumanEval, um benchmark que mede a funcionalidade dos códigos gerados. Ele supera o CodeLlama 70B, o DeepSeek Coder 33B e o Llama 3 70B em linguagens como Python, C++, Bash, Java e PHP.

Outros benchmarks, como CruxEval-O e RepoBench, também indicam que Codestral pode ser o melhor modelo de IA para codificação disponível atualmente, avaliando o raciocínio, entendimento e avaliação de códigos, bem como seus sistemas de auto-completação.
Entretanto, isso pode mudar com o lançamento do Code Interpreter da OpenAI, que está em testes beta há algum tempo.
“Codestral é treinado com um conjunto de dados diversificado, abrangendo mais de 80 linguagens de programação, incluindo as mais populares como Python, Java, C, C++, JavaScript e Bash, e até mesmo linguagens mais específicas como Swift e Fortran”, declara a empresa francesa.
Brasileiro ajuda de maneira inédita democratizar a IA.

Como Intel Innovator brasileiro, liderei o avanço pioneiro em IA com OpenVINO em openSUSE Linux. Como pesquisador e Intel Innovator, introduzi o toolkit de IA OpenVINO da Intel no sistema openSUSE, marcando a primeira vez que esta tecnologia é nativamente disponibilizada em um ambiente Linux. Este avanço proporciona aos usuários acesso direto às inovadoras soluções de inteligência artificial da Intel. O processo, gerenciado por mim, envolveu extensas adaptações e colaborações para compatibilizar as políticas técnicas de ambos sistemas.
A iniciativa destaca-se por integrar comunidades de código aberto no desenvolvimento de tecnologias emergentes, visando democratizar o acesso à IA e reduzir a exclusão digital. “Adaptamos OpenVINO para operar com o openSUSE, criando um marco de inovação colaborativa que impulsiona a transformação digital e serve de inspiração para explorar novas tecnologias”, diz Faria.
Desde 2018, OpenVINO tem facilitado avanços significativos em IA, desde aplicações em edge computing até soluções empresariais, aprimorando a eficiência do uso de hardware e fomentando o desenvolvimento em áreas como visão computacional e IA generativa.
Fontes:
https://www.intel.com.br/content/www/br/pt/newsroom/news/intel-innovator-brasileiro-cria-iniciativa-pioneira-com-ia.html
https://news.opensuse.org/2024/05/14/openvino-arrives-in-os-distributions/
WebNN: IA no navegador.

A API Neural Web (WebNN) traz capacidades de aceleração do aprendizado de máquina diretamente para aplicações web. Com o WebNN, os desenvolvedores podem aproveitar o poder das redes neurais dentro do ambiente do navegador, possibilitando uma ampla gama de casos de uso impulsionados por IA sem depender de servidores externos ou plugins. O que é WebNN?
WebNN é uma API JavaScript que fornece uma interface de alto nível para executar tarefas de inferência de rede neural de forma eficiente em vários aceleradores de hardware, como CPUs, GPUs e chips de IA dedicados (às vezes chamados de NPUs ou TPUs). Ao utilizar aceleração de hardware, o WebNN permite uma execução mais rápida e eficiente em termos de energia de modelos de aprendizado de máquina, tornando-o ideal para aplicativos em tempo real e cenários onde a latência é crítica. Modelo de Programação
O WebNN segue um modelo de programação simples, permitindo que os desenvolvedores realizem tarefas de inferência com mínima complexidade. A API é focada em definir as operações e a infraestrutura necessária para executar modelos de aprendizado de máquina, em vez de lidar com funcionalidades de nível mais alto, como carregamento, análise ou gerenciamento de modelos. O WebNN é projetado para ser agnóstico em relação aos formatos de modelo e deixa a responsabilidade de carregar e analisar os modelos para outras bibliotecas (como ONNX.js ou Tensorflow.js) ou para a própria aplicação web.
Em alto nível, o WebNN basicamente tem 2 etapas para executar um modelo:
Construção do Modelo: No WebNN, o primeiro passo é construir o modelo usando a API MLGraphBuilder. Uma vez que o modelo tenha sido construído, ele pode ser transformado em um grafo executável.
Execução do Modelo: Uma vez que o grafo executável tenha sido construído, os dados são inseridos e o grafo executa tarefas de inferência para obter previsões ou classificações. O WebNN fornece métodos para selecionar back-ends (seja explicitamente ou por características) que então processam os dados de entrada e retornam resultados de saída do modelo.
O WebNN aproveita os aceleradores de hardware para acelerar a execução de modelos. Como o WebNN é agnóstico em relação ao hardware e modelo, ele pode usar qualquer um dos recursos de hardware disponíveis (seja CPU, GPU, NPU, TPU, etc.), maximizando o desempenho e minimizando a latência, possibilitando experiências de usuário suaves e responsivas.
Mais informações aqui: https://webmachinelearning.github.io/webnn-intro/
Unidos pelo Sul disponível nas principais lojas de música.
A música “Unidos pelo Sul” já está disponível em todas as principais plataformas de streaming de música. Com apenas um simples clique, você não apenas terá a oportunidade ouvir a canção criada 100% por Inteligência Artificial, mas também contribuirá para uma causa nobre, ajudando as vítimas afetadas pelas recentes enchentes. É uma excelente maneira de fazer a diferença na vida de quem precisa.

Spotify:
https://tinyurl.com/rs-spotify-music
YouTube Music:
https://tinyurl.com/rs-youtube-music
Amazon Music:
https://tinyurl.com/rs-amazon-music
Apple Music:
https://tinyurl.com/rs-apple-music
iTunes:
https://tinyurl.com/rs-apple-music
Deezer:
https://tinyurl.com/rs-deezer
TikTok Music:
https://tinyurl.com/rs-tiktok
de 13ª Geração) e AVX512 (Processadores Escaláveis Intel® Xeon® de 3ª Geração), especialmente para tamanhos de lotes pequenos.





