Frequência Cardíaca com Webcam
Existe uma uma técnica interessante que permite medir a frequência cardíaca (assim obtendo o número de vezes que seu coração bate por minuto) usando apenas uma câmera de computador. A ideia básica é capturar pequenas mudanças na cor do seu rosto que ocorrem quando o sangue flui através dos vasos sanguíneos a cada batimento do coração.
Quando a luz atinge a pele, parte dela é refletida de volta, e essa luz refletida carrega informações sobre o que encontrou pelo caminho, incluindo o sangue que flui sob a pele. Como diferentes substâncias refletem a luz de maneiras distintas (ou seja, têm diferentes “perfis de reflectância”), podemos usar essas diferenças para identificar e medir coisas específicas, neste caso, os batimentos cardíacos.
Então, essencialmente, esta técnica permite com uma webcam utiliza a reflectância espectral para ‘ver’ o pulso de uma pessoa de uma maneira não invasiva. Ao analisar as mudanças sutis na cor da pele capturadas pela câmera, pode-se calcular a frequência cardíaca. É uma técnica incrível que mostra o quão avançada a ciência e a tecnologia se tornaram!
Abaixo os primeiros resultados das pesquisas iniciada em 2022:
Intel® e Instituto Credicitrus: Nova parceria no ONOVOLAB DE RIBEIRÃO PRETO/SP.
O Instituto Credicitrus e o Credicitrus Innovation Hub acabam de firmar parceria com a renomada empresa de tecnologia INTEL®. A colaboração estratégica resultante desse acordo ocorrerá no Onovolab Powered by Instituto Credicitrus em Ribeirão Preto, SP, e abrirá novos horizontes para a comunidade de empreendedores e desenvolvedores, proporcionando-lhes acesso privilegiado a tecnologias de ponta, como DevCloud, OpenVino e oneAPI. Essas iniciativas serão conduzidas por meio do Intel Innovator, que tem sido certificado com o selo oneAPI desde 2020, e do Intel Insider Council.
Com isto em breve estarei proporcionando para Ribeirão Preto e toda Região do interior de SP, palestras, materiais e informações sobre tecnologias emergentes que envolve Visão Computacional, Inteligencia Artificial e otimização com processadores Intel como programação multi nuclear e primitivas de performance integradas dos processadores.
Mais informações AQUI!


OpenCV 4.8.0 Lançada!

A biblioteca OpenCV lançou sua versão 4.8.0. Esta ferramenta, globalmente reconhecida e aplicada em diversos setores, foi originalmente apresentada ao mundo pela Intel no ano 2000. Hoje, conta com uma comunidade de mais de 47 mil contribuidores. E fiquei muito feliz de encontrar meu nome na lista de contribuidores deste release.
Destaques da versão
Melhorias no módulo dnn:
– Suporte introduzido para modelos TFLite
– Permitido construção sem dependência de protobuf
– Backend Vulcan refatorado para melhor desempenho e robustez
-Suporte moderno ao OpenVINO (também no módulo gapi)
Detecção de objetos:
– FaceDetectorYN atualizado para v2 com melhor desempenho e suporte a landmarks
– Novo algoritmo de detecção de QR code baseado no ArUco
– Módulo de código de barras foi movido de opencv_contrib para o módulo objdetect
– Suporte ao tabuleiro Charuco adicionado ao script do gerador de padrões
Codecs de imagem e vídeo:
– Suporte AVIF adicionado através do libavif
– Câmeras Orbbec Femto Mega suportadas
– Corrigida a captura da câmera virtual OBS
Nova função cv::hasNonZero e novo modo REDUCE_SUM2 para cv::reduce
Suporte RISC-V RVV atualizado para compatibilidade com LLVM 16 e GCC 13
Arquivo stub de digitação Python gerado permite que ferramentas e IDEs obtenham assinaturas de funções e tipos, habilitando auto-completar e verificação de tipo estática
Mais detalhes podem ser encontrados no Changelog.
Stability AI SDXL 0.9: Uma nova fronteira na geração de imagens por IA
A empresa Stability AI apresentou o SDXL 0.9, o seu mais recente progresso no conjunto de modelos Stable Diffusion para geração de imagens a partir de texto. Após a bem-sucedida estreia do Stable Diffusion XL beta em abril, o novo SDXL 0.9 oferece uma substancial melhoria na qualidade das imagens e na riqueza de detalhes se comparado ao seu predecessor.
O acesso ao modelo pode ser feito por meio do ClipDrop atualmente, com a API sendo disponibilizada em breve. Os pesos para pesquisa serão lançados abertamente em meados de julho, à medida que avançamos para a versão 1.0.
Embora seja possível rodar o SDXL 0.9 numa GPU convencional, este modelo representa um avanço significativo no uso criativo das imagens geradas por IA. A possibilidade de criar representações hiper-realistas para cinema, TV, música e vídeos didáticos, além de ser aplicável a design e uso industrial, posiciona o SDXL na vanguarda das aplicações de imagens de IA.
Exemplos:
Alguns exemplos dos prompts testados no SDXL beta (esquerda) e 0.9 mostram o quão longe esse modelo chegou em apenas dois meses.

Prompt:
aesthetic
aliens walk among us in Las Vegas, scratchy found film photograph
(Left – SDXL Beta, Right – SDXL 0.9)

Prompt: *~aesthetic~*~ manicured hand holding up a take-out coffee, pastel chilly dawn beach instagram film photography
Negative prompt: 3d render, smooth, plastic, blurry, grainy, low-resolution, anime
(Left – SDXL Beta, Right – SDXL 0.9)
A série SDXL não só atende a pedidos de texto básico, mas também dispõe de uma gama de funcionalidades adicionais. Isso inclui a requisição de imagem para imagem (onde uma imagem é inserida para gerar variações dela), pintura interna (reconstrução de partes faltantes numa imagem) e pintura externa (expansão perfeita de uma imagem existente).
Como funciona de baixo do capô?
A principal força motriz por trás do avanço do SDXL 0.9 é o aumento significativo na contagem de parâmetros (soma de todos os pesos e vieses na rede neural usada para treinar o modelo) em relação à versão beta.
O SDXL 0.9 é um dos modelos de geração de imagens com a maior contagem de parâmetros abertos, apresentando 3,5B parâmetros no modelo base e 6,6B no pipeline de conjunto de modelos (a saída final é criada executando-se dois modelos e agregando os resultados). O modelo do segundo estágio é usado para adicionar detalhes mais refinados à saída do primeiro estágio.
Comparativamente, a versão beta rodava com 3,1B parâmetros e usava apenas um único modelo.
O SDXL 0.9 roda em dois modelos CLIP, incluindo um dos maiores modelos OpenCLIP treinados até hoje (OpenCLIP ViT-G/14). Isso reforça a capacidade do 0.9 de criar imagens realistas com maior profundidade e resolução de 1024×1024.
Um artigo de pesquisa detalhando as especificações e testes deste modelo será divulgado pela equipe SDXL em breve.
Requisitos do Sistema
Apesar de sua capacidade de processamento e arquitetura de modelo avançada, o SDXL 0.9 pode ser rodado em uma GPU moderna de consumo, exigindo apenas um sistema operacional Windows 10 ou 11 ou Linux, com 16GB de RAM, e um Nvidia GeForce RTX 20 (ou equivalente) com no mínimo 8GB de VRAM. Usuários de Linux também podem usar uma placa compatível da AMD com 16GB de VRAM.
Próximos passos
O lançamento geral aberto do SDXL 1.0 está previsto para meados de julho (data a confirmar), seguindo o SDXL 0.9.
Contato: Para mais informações ou para dar feedback sobre o SDXL 0.9, por favor entre em contato conosco em research@stability.ai.
Anunciado StableStudio: código aberto para IA generativa

A revolucionária startup Stability AI, famosa por seu modelo de geração de imagens Stable Diffusion, chama a atenção com a divulgação de seu mais recente projeto, StableStudio. Trata-se de uma edição de código aberto do seu software de design comercial baseado em IA, o DreamStudio. Esse passo estratégico se alinha com a meta da empresa de promover o desenvolvimento colaborativo e se manter na vanguarda do dinâmico setor de IA generativa e arte, um ritmo que muitas vezes supera as iniciativas de empresas individuais e seus softwares proprietários. Esta ação também é vista como uma estratégia para capitalizar os investimentos recentes de gigantes tecnológicos como Google, Microsoft e Amazon.
A empresa acredita que um desenvolvimento de código aberto, colaborativo e voltado para a comunidade poderá facilitar a expansão da IA generativa. Eles compartilharam sua visão de trabalhar com a comunidade em geral para desenvolver a interface de usuário mais eficaz, concedendo aos usuários controle total sobre o potencial criativo da IA generativa.
Inicialmente projetado como um estúdio de animação para o modelo de arte AI generativa de código aberto Disco Diffusion, o DreamStudio gradualmente se reinventou e passou a focar na geração de imagens com a introdução do Stable Diffusion. Esta mudança de foco colocou o DreamStudio em uma disputa acirrada com outras plataformas de geração de imagens concorrentes, como Midjourny e NightCafe.
Embora StableStudio e DreamStudio tenham várias semelhanças, também apresentam diferenças significativas. StableStudio não compartilha marcas ou recursos específicos de conta do DreamStudio, como cobrança e gerenciamento de API. Além disso, as chamadas de API de back-end foram substituídas por um sistema de plug-in.
Apesar de StableStudio compartilhar uma visão de desenvolvimento colaborativo, alguns críticos enxergam o lançamento do StableStudio como uma tentativa da Stability AI de externalizar o desenvolvimento do DreamStudio para a comunidade de código aberto. Embora este ponto de vista não seja totalmente sem fundamento, é verdade que a Stability AI está sob grande pressão para monetizar suas diversas iniciativas, que abrangem arte, animação, biomedicina e áudio generativo.
Emad Mostaque, CEO da Stability AI, sugeriu a possibilidade de uma oferta pública inicial (IPO) para a Stability AI. Curiosamente, apesar de ter arrecadado mais de US$ 100 milhões em capital de risco em outubro do ano anterior, com uma avaliação superior a US$ 1 bilhão, conforme postagens recentes no Stability Ai indicam que a empresa precisa acelerar a geração de receitas, já que seus recursos financeiros estão sendo rapidamente consumidos.
Essa nova estratégia representa um desafio para a Stability AI. Diferente do Stable Diffusion, que não foi desenvolvido internamente pela empresa, mas em parceria com organizações de pesquisa, a Stability AI se concentrou principalmente em fornecer acesso à nuvem para o poder computacional necessário para treinar modelos de IA, em vez de desenvolver seus próprios modelos.
Essa abordagem está mudando constantemente. Há algumas semanas, a Stability AI anunciou o lançamento de um conjunto de modelos de IA para geração de texto, com o objetivo de competir com sistemas como o GPT-4 e o ChatGPT da OpenAI. Além disso, a Stability AI lançou o Stable Diffusion XL (SDXL), uma versão avançada do modelo original com melhorias significativas, como a geração de mãos.
A decisão ousada da Stability AI de tornar seu projeto de código aberto está estrategicamente alinhada com os esforços contínuos da empresa para garantir mais financiamento. Com o passar do tempo, observaremos como essa mudança irá afetá-los.
Código Fonte: https://github.com/Stability-AI/StableStudio
openSUSE Leap 15.5 cool packages disponível!

Instalou o openSUSE Leap 15.5? E agora o que instalar? E os codecs proprietários ? E os codecs multimídia? Demorou mas foi concluído! O Cool Package é um processo que instala alguns software necessários para a dia a dia de um SUSEIRO e resolver todas as questões de dependências. O Cool Package disponibiliza:
- Thunderbird
- Codecs
- VLC
- KDEnlive
- DVDAuthor
- MPV
- ffmpeg
- Lame
- E outros…
A seguir o botão 1-click Install. que resolver estes questionamentos, pois este botão instala os primeiros softwares principais para a tarefa do dia a dia como: o cliente de email Thunderbird, VLC, MPV, Codecs proprietários e editores de vídeos. Qualquer dúvida, críticas e sugestões em cabelo@opensuse.org

Lançado openSUSE 15.5!

Em 07 de junho de 2023, a versão estável do openSUSE Leap 15.5 foi lançada ao público. Originada a partir do código fonte do SUSE Linux Enterprise 15 Service Pack 5, o Leap 15.5 se beneficiará de atualizações de manutenção e segurança durante um período estimado de 18 meses, o que se estenderá até dezembro de 2024.
Embora esta atualização não introduza características inéditas, o openSUSE Leap 15.5 proporciona versões mais avançadas de softwares e pacotes, incluindo a prestigiosa biblioteca de gráficos 3D Mesa 22.3.5, que agora suporta novos protocolos Vulkan e hardware mais atualizado, como o Intel DG2 e RDNA 3. Analogamente ao Leap 15.4, o Linux Kernel 5.14.21 ainda persiste no Leap 15.5, mas agora com a adição de cerca de 19.000 correções focadas primordialmente no suporte a drivers de GPUs, de redes, bluetooth e de dispositivos de armazenamento. Outro aprimoramento digno de nota reside no repositório do codec OpenH264, que se encontra habilitado por padrão em todas as instalações recentes.
Download AQUI!
SAHI: HyperInferência em Visão Computacional

A detecção de objetos pequenos é uma tarefa de identificar e localizar objetos de tamanho relativamente pequeno em imagens digitais. Esses objetos geralmente têm extensão espacial limitada e baixa cobertura de pixel e podem ser difíceis de detectar devido à sua aparência pequena e baixa relação sinal ruído.
Existem vários algoritmos de detecção de objetos, como Faster RCNN, YOLO, SSD, RetinaNet, EfficientDet. Atualmente em grande maioria dos casos, esses modelos são treinados no conjunto de dados COCO (Common Objects in Context). É um conjunto de dados de grande escala contendo uma ampla variedade de categorias e anotações de objetos, tornando-o popular para detectores de objetos de treinamento. No entanto, verifica-se que esses modelos não conseguem detectar objetos pequenos.
O campo receptivo refere-se à extensão espacial da imagem de entrada que influencia a saída de um determinado neurônio ou filtro em uma rede neural convolucional (CNN). Em detectores de objetos normais, o campo receptivo pode ser limitado, o que significa que a rede pode não ter uma compreensão suficiente das informações contextuais que envolvem objetos menores.
Hiperinferência auxiliada por fatiamento do projeto SAHI, um pipeline de ponta projetado especificamente para detecção de objetos pequenos. O SAHI aproveita o poder da inferência auxiliada por corte e das técnicas de ajuste fino, revolucionando a forma como os objetos são detectados. O que diferencia a detecção de objetos SAHI é sua integração perfeita com qualquer detector de objetos, eliminando a necessidade de ajustes tediosos. Essa inovação permite uma adoção rápida e sem esforço, sem comprometer o desempenho. Abaixo o paper sobre SAHI.

https://arxiv.org/abs/2202.06934

Alguns Exemplos:




Minecraft com GPT-4 incrível!
Apresentamos o Voyager, um inovador agente de aprendizado contínuo incorporado (LLM) no universo virtual de Minecraft. Ele é o primeiro de sua categoria, capaz de explorar o mundo continuamente, adquirir uma ampla gama de habilidades e fazer descobertas inéditas, tudo isso sem qualquer intervenção humana. Este post mostrará as características únicas do Voyager, sua estrutura, funcionalidades e sua capacidade de aprendizado, além de destacar seu desempenho superior em relação a outros projeto.
Em maneira empirica, o Voyager demonstra forte capacidade de aprendizado contínuo no contexto e exibe excepcional proficiência em jogar Minecraft. Voyager é capaz de utilizar a biblioteca de habilidades aprendida em um novo mundo do Minecraft para resolver tarefas inéditas do zero, enquanto outras técnicas lutam para generalizar.

O Voyager é formado por três componentes principais, essenciais para a sua operação e performance.
- O Voyager emprega um currículo automático cuja principal função é maximizar a exploração. Este currículo determina as diretrizes básicas para as atividades de aprendizado do agente, buscando garantir que ele explore o ambiente de maneira eficiente e eficaz. Ele é projetado para incentivar o agente a buscar ativamente novas experiências, ampliando assim a variedade de habilidades que pode adquirir.
- Proporciona uma biblioteca de habilidades em constante expansão, que armazena códigos executáveis capazes de representar e recuperar comportamentos complexos. Este recurso é vital para a habilidade do Voyager de adquirir, manter e aplicar uma ampla gama de habilidades. As habilidades que o Voyager aprende não são apenas armazenadas para uso futuro, mas são também organizadas de tal maneira que podem ser recuperadas e aplicadas de forma eficiente conforme a necessidade.
- Finalmente, o Voyager emprega um novo mecanismo de prompt iterativo que incorpora feedback do ambiente, erros de execução e auto-verificação para aprimorar o desempenho do programa. Esse mecanismo é essencial para ajudar o Voyager a aprender com suas ações, avaliar o sucesso de suas tarefas e corrigir erros, contribuindo para o seu crescimento e desenvolvimento contínuos.
Interação com GPT-4
Um aspecto interessante do Voyager é a forma como ele interage com o GPT-4, uma arquitetura de modelo de linguagem poderosa da OpenAI. O Voyager consulta o GPT-4 usando consultas de caixa preta, uma abordagem que evita a necessidade de ajuste fino dos parâmetros do modelo. Isso facilita a interação entre o Voyager e o GPT-4, permitindo que o agente aprenda e opere de forma mais eficiente.
As Habilidades do Voyager
As habilidades que o Voyager adquire e desenvolve são extensas, interpretáveis e composicionais. Elas são extensas no sentido de que o agente é capaz de aplicá-las em uma série de contextos ao longo do tempo. Elas são interpretáveis, o que significa que podem ser entendidas e analisadas tanto pelo Voyager quanto por observadores humanos. E são composicionais, de forma que o agente pode combinar diferentes habilidades para formar comportamentos mais complexos. Esta combinação de características permite ao Voyager aumentar rapidamente suas habilidades e mitigar o problema do esquecimento catastrófico, um desafio comum em sistemas de aprendizado de máquina.
Mais detalhes sobre o projeto aqui: https://github.com/MineDojo/Voyager
Feliz dia da toalha e do Orgulho NERD!

O Dia do Orgulho Nerd, ou Dia do Orgulho Geek é uma iniciativa que advoga o direito de toda pessoa ser um nerd ou um geek. Teve origem na Espanha (“dia del orgullo friki”, em espanhol).[1]
O dia do orgulho nerd é celebrado em 25 de maio desde 2006, comemorando a première do primeiro filme da série Star Wars, em 1977. O dia 25 de maio também é o Dia da Toalha, em homenagem ao escritor Douglas Adams.
Origens
Em 2006, este dia foi celebrado pela primeira vez em toda a Espanha e na internet, graças à publicidade dada por alguns meios, como:
- Salas, Javier. “Comecocos y mangas toman la calle: la revancha de los frikis“, Telecinco, 2006-5-26. Página visitada em 2006-05-26.
- Perez, Javier. “Orgullo friki“, El Mundo, 2006-5-26. Página visitada em 2005-05-26.
- Ramos, David. “25 de mayo: Día del Orgullo Friki“, 20minutos, 2006-5-25. Página visitada em 2005-05-25.
A maior concentração aconteceu em Madri, onde 300 Nerds demonstraram seu orgulho com um pacman humano.
Comemorações de 2007
Em 2007 a celebração contou com mais ajuda de instituições oficiais (como o Circo Price, de Madri) e teve comemoração mais ampla por toda a Espanha. Atividades oficiais foram anunciadas no Pilar de la Horadada, Cádiz, Huesca, Calaf, Huelva, e Valência. Houve uma campanha Doação de Sangue Nerd. Entre outros atos, foi exibido o filme Gritos no corredor.
2008: O dia do Orgulho Nerd chega à América
Em 2008, o Dia do Orgulho Nerd atravessou o Atlântico e foi comemorado oficialmente na América, onde foi divulgado por numerosos bloggers, unidos pelo lançamento do site GeekPrideDay. O matemático e autor John Derbyshire, vencedor do Prêmio Livro de Euler e blogger geek, anunciou[2] que apareceria na parada da Quinta Avenida, vestido de número 57, na ala dos números primos – o que fez alguns bloggers dizerem que iriam procurá-lo.
Direitos e deveres dos nerds
Foi criado um manifesto para celebrar o primeiro Dia do Orgulho Nerd, que incluía a seguinte lista de direitos e deveres dos nerds:[3]Direitos
- O direito de ser nerd.[3]
- O direito de não ter que sair de casa.[3]
- O direito a não ter um par e ser virgem.[3]
- O direito de não gostar de futebol ou de qualquer outro esporte.[3]
- O direito de se associar com outros nerds.[3]
- O direito de ter poucos (ou nenhum) amigo.[3]
- O direito de ter o tanto de amigos nerds que quiser.[3]
- O direito de não ter que estar “na moda”.[3]
- O direito ao sobrepeso (ou subpeso) e de ter problemas de visão.[3]
- O direito de expressar sua nerdice.[3]
- O direito de dominar o mundo.[3]
Deveres
- Ser nerd, não importa o quê.[3]
- Tentar ser mais nerd do que qualquer um.[3]
- Se há uma discussão sobre um assunto nerd, poder dar sua opinião.[3]
- Guardar todo e qualquer objeto nerd que tiver.[3]
- Fazer todo o possível para exibir seus objetos nerds como se fosse um “museu da nerdice”.[3]
- Não ser um nerd generalizado. Você deve se especializar em algo.[3]
- Assistir a qualquer filme nerd na noite de estréia e comprar qualquer livro nerd antes de todo mundo.[3]
- Esperar na fila em toda noite de estreia. Se puder ir fantasiado, ou pelo menos com uma camisa relacionada ao tema, melhor ainda.[3]
- Não perder seu tempo em nada que não seja relacionado à nerdice.[3]
- Tentar dominar o mundo.[3]
