Fri, Sep 13, 2024

Feliz dia do Desenvolvedor !

O Dia do Programador é  o 256º dia do ano, celebrada por programadores de computador em boa parte do mundo. Este número foi escolhido porque é o maior número que pode ser representado por um byte (oito bits). Além disso, esse número é a maior potência de dois , como também inferior ao número 365 (o número de dias do ano). Também pode ser representado, em hexadecimal como 0x100 e em octal como 0400.

Dia do Programador é dia 13 de setembro, exceto em anos bissextos, nos quais ele é comemorado no dia 12 de setembro, pois esse é o 256º dia do ano bissexto.

Wed, Sep 11, 2024

Mistral lança Pixtral, seu primeiro modelo multimodal

A startup francesa de inteligência artificial Mistral lançou seu primeiro modelo capaz de processar imagens e texto.

Denominado Pixtral 12B, o modelo de 12 bilhões de parâmetros tem aproximadamente 24GB de tamanho. Os parâmetros correspondem, aproximadamente, às habilidades de resolução de problemas de um modelo, e modelos com mais parâmetros geralmente apresentam melhor desempenho que aqueles com menos parâmetros.

Construído a partir de um dos modelos de texto da Mistral, o Nemo 12B, o novo modelo pode responder perguntas sobre um número arbitrário de imagens de tamanho arbitrário fornecidas por URLs ou imagens codificadas usando base64, o esquema de codificação de binário para texto. Similar a outros modelos multimodais, como a família Claude da Anthropic e o GPT-4o da OpenAI, o Pixtral 12B deveria — ao menos em teoria — ser capaz de realizar tarefas como legendagem de imagens e contagem do número de objetos em uma foto.

Disponível por meio de um link torrent no GitHub e na plataforma de desenvolvimento de IA e machine learning Hugging Face, o Pixtral 12B pode ser baixado, ajustado e usado presumivelmente sob a licença de desenvolvimento padrão da Mistral, que exige uma licença paga para aplicações comerciais, mas não para usos acadêmicos e de pesquisa.

A Mistral não esclareceu exatamente qual licença se aplica ao Pixtral 12B. A startup oferece alguns modelos sob uma licença Apache 2.0 sem restrições. Entramos em contato com a Mistral para mais informações e atualizaremos esta postagem caso tenhamos retorno.

Infelizmente, este escritor não conseguiu testar o Pixtral 12B — não havia demos web funcionando no momento da publicação. Em uma postagem no X, Sophia Yang, chefe de relações com desenvolvedores da Mistral, disse que o Pixtral 12B estará disponível para testes nas plataformas de chatbot e de serviço de API da Mistral, Le Chat e Le Platforme, em breve.

Não está claro quais dados de imagem a Mistral pode ter usado para desenvolver o Pixtral 12B.

A maioria dos modelos de IA generativa, incluindo outros modelos da Mistral, é treinada com vastas quantidades de dados públicos da web, que muitas vezes são protegidos por direitos autorais. Alguns fornecedores de modelos argumentam que os direitos de “uso justo” os autorizam a raspar qualquer dado público, mas muitos detentores de direitos autorais discordam e entraram com processos contra fornecedores maiores como OpenAI e Midjourney para interromper a prática.

O Pixtral 12B chega após a Mistral fechar uma rodada de financiamento de $645 milhões liderada pela General Catalyst, que avaliou a empresa em $6 bilhões. Com pouco mais de um ano, a Mistral — com participação minoritária da Microsoft — é vista por muitos na comunidade de IA como a resposta da Europa à OpenAI. A estratégia da empresa mais jovem até agora envolveu o lançamento de modelos “abertos” gratuitos, cobrança por versões gerenciadas desses modelos e fornecimento de serviços de consultoria para clientes corporativos.

Thu, Sep 05, 2024

Descoberta a solução para eliminar erros da IA

Texto originalmente traduzido do https://medium.com.
Fonte:https://blog.cubed.run/100-accurate-ai-claimed-by-acurai-openai-and-anthropic-confirm-acurais-discoveries-98fce1ddeb5b

As notícias impressionantes da Acurai de ter descoberto como os LLMs (Modelos de Linguagem de Grande Escala) operam agora são confirmadas por estudos conduzidos pela OpenAI e Anthropic.

Em março de 2024, esta autora publicou “Elimine as Alucinações dos Chatbots — ISTO MESMO!, Elimine-as”. Este artigo fez a audaciosa afirmação de que os LLMs se auto-organizam em torno de Frases Nominais; e que o comportamento dos LLMs pode ser controlado através da manipulação de Frases Nominais. Estudos recentes da Anthropic e da OpenAI agora confirmam empiricamente essas verdades. Esta é uma notícia FANTÁSTICA! Afinal, essas verdades são a base para eliminar as alucinações — sim, eliminá-las.

Modelo de Dominância de Frases Nominais

Em março de 2024, foi apresentado a seguinte a descoberta revolucionária do “Modelo de Dominância de Frases Nominais”: https://www.michaelcalvinwood.net/docs/Relevant-and-Accurate-AI–Public.pdf

This present inventor’s Noun-Phrase Collision Model led to the development of the higher-level Noun-Phrase Dominance Model — the model that is the key to using LLM token prediction to consistently generate factually accurate output. The Noun-Phrase Dominance Model is perhaps best understood from the perspective of another type of neural network — CNNs (Convolutional Neural Networks).

CNNs are often used for image identification. For example, CNNs can be trained to distinguish images of people, pets, boats, etc. CNNs consist of multiple layers of neurons. Remarkable, during training, these layers self-organize themselves. For example, the early layers self-organize around detecting simple patterns such as edges and textures. The latter layers selforganize by combining the information from earlier layers into more complex patterns like shapes — shapes including the recognition of eyes, ears, legs, steering wheels, etc.

No one tells the CNN to do this. Even though CNNs are merely a collection of neurons with probabilistic weights and biases, CNNs automatically self-organize in this manner in order to fulfill the training objective. While much is discussed in the literature regarding the selforganizing nature of CNN neural networks, little if anything is discussed regarding the selforganizing nature of Transformer Neural Networks — the type of neural network used to construct the most popular Large Language Models such as ChatGPT.

This present inventor’s Noun-Phrase Dominance Model states that neural networks self organize around noun phrases during the training of Large Language Models.

emphasiS

O artigo discute então o controle do comportamento do LLM (por exemplo, garantindo respostas 100% precisas) por meio da manipulação de frases nominais enviadas na consulta e passagens em chatbots baseados em RAG.

Estudos da Anthropic e da OpenAI agora confirmam o modelo de dominância de sintagma nominal. LLMs são construídos a partir de múltiplas camadas. Em outras palavras, a entrada (prompt) passa por muitas camadas para gerar a saída.

Cada camada contém muitos neurônios. Cada neurônio tem vários valores que aprendeu durante o treinamento (como pesos e vieses). O modelo de dominância de sintagma nominal diz que os neurônios não operam por conta própria, mas se auto-organizam em torno de sintagmas nominais. Tanto a OpenAI quanto a Anthropic descobriram recentemente que essa é a verdade empírica — a maneira real como os LLMs operam sob o capô.

Conforme relatado pela Axios AI+ em 23 de agosto de 2024:

One way AI researchers are trying to understand how models work is by looking at the combinations of artificial neurons that are activated in an AI model’s neural network when a user enters an input.

These combinations, referred to as “features,” relate to different places, people, objects and concepts.

Researchers at Anthropic used this method to map a layer of the neural network inside its Claude Sonnet model and identified different features for people (Albert Einstein, for example) or concepts such as “inner conflict.”

They found that some features are located near related terms: For example, the “inner conflict” feature is near features related to relationship breakups, conflicting allegiances and the notion of a catch-22.

When the researchers manipulated features, the model’s responses changed, opening up the possibility of using features to steer a model’s behavior.

OpenAI similarly looked at a layer near the end of its GPT-4 network and found 16 million features, which are “akin to the small set of concepts a person might have in mind when reasoning about a situation,” the company said in a post about the work.

Bolded
  • Primeiro, observe que a Anthropic e a OpenAI agora confirmam nos testes que os neurônios de fato se auto-organizam, exatamente como o Modelo de Dominância Substantiva-Frase declarou.
  • Segundo, observe que a auto-organização não é em torno de verbos, adjetivos, advérbios, etc. Em contraste gritante, os neurônios se auto-organizam em torno de “lugares, pessoas, objetos e conceitos”. Em outras palavras, os neurônios se auto-organizam em torno de frases nominais — assim como o Modelo de Dominância Frase-Nome declarou.
  • Terceiro, os agrupamentos de sintagmas nominais (ou seja, características) agrupam “termos quase relacionados”, afirmando a existência de Rotas de Frases Nominais — assim como o Modelo de Dominância de Frases Nominais declarou.
  • Quarto, observe que a Anthropic e a OpenAI descobriram que a manipulação de frases nominais pode ser usada para “orientar o comportamento de um modelo” — assim como o Modelo de Dominância de Frases Nominais declarou.

Elimine alucinações — sim, IA SEM ERRO!

Esta é uma notícia INCRÍVEL! Afinal, o Modelo de Dominância de Frases Nominais é a chave para eliminar alucinações.

No entanto, a comunidade de pesquisa de alguma forma ignorou este modelo — ao mesmo tempo em que continua a proclamar que as alucinações são um problema intratável.

Desde o artigo de março de 2024, FOI DEMONSTRADO no mundo real como documentar o Modelo de Dominância de Frases Nominais e explica como esta é a chave para construir chatbots 100% precisos e livres de alucinações

. O Modelo de Dominância de Frases Nominais é real. E também a solução para finalmente eliminar as alucinações de uma vez por todas. Você pode construir chatbots 100% precisos… hoje mesmo.

Sun, Aug 25, 2024

Modelos TTT: A nova era da IA

https://arxiv.org/pdf/2407.04620

Não consigo sincronizar minhas pesquisas com os posts no blog (seria impossível), mas em 15 de Agosto fiquei surpreso, pois pesquisadores de instituições renomadas, incluindo Stanford, UC San Diego, UC Berkeley e Meta, estão avançando no desenvolvimento de uma nova arquitetura de inteligência artificial, conhecida como modelos TTT (test-time training). Essa inovação promete superar os desafios enfrentados pelos transformers tradicionais, oferecendo um processamento de dados mais eficiente e econômico para aplicações em IA generativa.

Os modelos transformers são essenciais em organizações como a OpenAI, formando a espinha dorsal de sistemas avançados como o Sora, um gerador de vídeo de última geração. Apesar de sua eficácia em processar linguagem natural e gerar texto, esses modelos consomem uma quantidade significativa de energia e exigem alta capacidade computacional. Um dos principais limitadores dos transformers é o estado oculto, que, embora armazene informações valiosas, requer revisão completa dos dados para responder a perguntas específicas, como sobre o conteúdo de um livro.

Para superar essas limitações, foi desenvolvido o modelo TTT, que elimina a necessidade de um estado oculto extensivo, substituindo-o por um mecanismo de aprendizado de máquina mais eficiente. Segundo Yu Sun, pós-doutorando em Stanford e colaborador na pesquisa, os modelos TTT são capazes de processar extensos volumes de dados — incluindo texto, imagens, áudio e vídeo — sem aumentar seu tamanho conforme mais dados são processados, algo que os diferencia dos transformers tradicionais.

As principais inovações das camadas TTT incluem:

  • Estados Ocultos Expressivos: Cada estado oculto nas camadas TTT é um modelo, como um modelo linear ou um MLP de duas camadas (Perceptron Multi-Camadas), que pode ser continuamente treinado para capturar melhor o contexto.
  • Regra de Atualização Auto-Supervisionada: O mecanismo de atualização para o estado oculto é baseado em aprendizado auto-supervisionado, permitindo que o modelo atualize seus parâmetros com base nos dados de entrada mesmo durante o tempo de teste.

Em termos de avanços práticos, a abordagem TTT aborda questões de escalabilidade e eficiência comumente enfrentadas por RNNs tradicionais e modelos de autoatenção por:

  • Manter uma complexidade linear em relação ao comprimento da sequência de entrada.
  • Potencialmente superando RNNs tradicionais como Mamba e modelos de autoatenção como Transformers no manejo de contextos de sequências longas.
  • Implementar otimizações de sistema que permitem que as camadas TTT funcionem eficientemente em hardware, beneficiando-se particularmente das arquiteturas modernas de GPU.

“Nossa abordagem permite que o sistema analise informações sobre um livro com menos complexidade computacional, evitando a necessidade de revisitar o texto múltiplas vezes”, explicou Sun ao TechCrunch. Essa tecnologia tem o potencial de transformar o processamento de vídeos longos, simulando a experiência visual humana sem as limitações dos grandes modelos baseados em transformers.

Outras empresas, como Mistral e AI21 Labs, também estão explorando tecnologias alternativas, como os modelos de espaço de estado (SSMs), que prometem eficiência comparável ou até superior aos transformers.

Sat, Aug 17, 2024

Inteligência Artificial no Direito

Durante minha pesquisa sobre a aplicação de Inteligência Artificial (IA) no setor jurídico, observei uma vasta oferta de ferramentas que prometem revolucionar a prática jurídica com o uso de IA. No entanto, após testar modelos de linguagem de grande escala (LLMs) proprietários e de código aberto, como Llama e Gemmini, surgiram questionamentos importantes sobre a real eficácia e limitações dessas tecnologias.

Muitos vídeos e conteúdos nas redes sociais promovem uma visão excessivamente otimista e, por vezes, sensacionalista, sugerindo que a IA pode acelerar significativamente a elaboração de documentos jurídicos complexos. No entanto, é crucial compreender que a IA não substitui o aconselhamento jurídico especializado. Através dos testes realizados, ficou evidente que, apesar das capacidades avançadas dos LLMs, eles não conseguem replicar a profundidade de análise e o julgamento crítico de um profissional jurídico experiente. As questões legais são, em sua essência, complexas e multifacetadas, exigindo que as decisões sejam fundamentadas em informações fornecidas por profissionais qualificados, capazes de entender as nuances e particularidades das leis.

Um dos principais desafios enfrentados pelos modelos de IA no setor jurídico é a compreensão contextual. Os LLMs algumas vezes falham em captar o contexto completo das questões jurídicas, resultando em respostas que, embora possam parecer corretas à primeira vista, carecem da profundidade necessária para uma análise adequada. Esse tipo de limitação pode, paradoxalmente, aumentar o trabalho ao invés de reduzi-lo, uma vez que as respostas geradas precisam ser revisadas e corrigidas por profissionais.

A linguagem jurídica, com sua complexidade e nuances, representa outro obstáculo significativo. Mesmo os modelos treinados especificamente para fins jurídicos podem cometer erros de interpretação que podem ter consequências graves. Nos testes realizados, foi comum observar interpretações incorretas até mesmo em demandas simples, como respostas a e-mails do dia a dia. Isso reforça a necessidade de cautela ao confiar em modelos de linguagem para tarefas jurídicas.

Além disso, a utilização de modelos baseados em nuvem para gerar conteúdo jurídico levanta sérias preocupações éticas relacionadas à privacidade, confidencialidade e ao manejo adequado de dados sensíveis. A ausência de responsabilidade por parte dos modelos de IA em relação às informações fornecidas é um ponto crítico, pois não há garantias sobre a veracidade ou as consequências das respostas geradas. A imprevisibilidade nas respostas dos modelos pode resultar em inconsistências ou contradições, o que é particularmente problemático no contexto jurídico, onde a clareza e coerência são essenciais.

Apesar dessas limitações, a IA oferece vantagens substanciais no campo jurídico, como a otimização do tempo e a melhoria na pesquisa e na elaboração de documentos. No entanto, é imperativo que os advogados estejam cientes dessas limitações e assumam a responsabilidade de validar as informações geradas, assegurando que estejam em conformidade com as normas éticas e profissionais. O uso criterioso da IA pode, sim, aumentar a produtividade no setor jurídico, mas sempre com a devida supervisão humana.

Por fim, surge a questão sobre a viabilidade do uso de Small Language Models (SLMs) em comparação com os LLMs nesse contexto. A escolha entre um SLM e um LLM deve ser cuidadosamente avaliada, levando em consideração as necessidades específicas da aplicação, os recursos disponíveis e as restrições de desempenho. É possível que, em certos casos, um SLM seja uma solução mais adequada, oferecendo respostas mais focadas e contextualizadas dentro das limitações impostas pelo cenário jurídico.

Thu, Aug 15, 2024

Grok-2 com capacidade de gerar imagens

xAI, a empresa de inteligência artificial de Elon Musk, anunciou ontem duas novas versões do seu chatbot Grok, denominadas Grok-2 e Grok-2 mini. Atualmente, esses modelos estão em fase beta na plataforma X, anteriormente conhecida como Twitter.

As atualizações incluem melhorias nas funcionalidades de chat, codificação e raciocínio. Além disso, esses modelos agora podem gerar imagens utilizando um modelo de IA chamado Flux 1, desenvolvido pela Black Forest Labs.

A xAI apresentou o Grok-2, destacando suas capacidades avançadas para usuários do X, incluindo bate-papo aprimorado, codificação e capacidades analíticas. O Grok-2 e sua versão menos avançada, o Grok-2 mini, estão disponíveis apenas para os assinantes Premium e Premium+ da plataforma.

Durante o evento de lançamento, foi mencionado que o Grok-2 integra informações em tempo real do X e utiliza avançada compreensão de texto e capacidades visuais para executar comandos complexos. Comparativamente, o Grok-2 mini foca em oferecer uma resposta mais rápida, embora com menos capacidades.

Desde a aquisição do X por Musk em 2022, a plataforma tem sido reticente em responder à imprensa, especialmente sobre questões futuras relacionadas ao Grok, deixando muitas perguntas sem resposta.

A xAI também planeja disponibilizar os modelos Grok-2 e Grok-2 mini para desenvolvedores através de uma API empresarial ainda este mês. A empresa anunciou recentemente uma rodada de financiamento que elevou sua avaliação, sublinhando o sucesso e a expansão contínua dos seus modelos de IA.

Tue, Aug 13, 2024

IA para auxiliar técnicos no Futebol.

No futebol moderno, o equilíbrio entre o jogo interior e o jogo pelas alas é fundamental para superar os adversários e criar oportunidades de gol. Embora o jogo pelas alas tenha historicamente predominado como tática, a habilidade de uma equipe em desenvolver o jogo interior — movimentando a bola pelos espaços centrais entre as linhas defensivas do oponente tornou-se uma peça-chave para o sucesso ofensivo. Este post apresenta um método inovador para medir de forma objetiva o potencial de jogo interior de uma equipe, utilizando a homografia para mapear projeções em diferentes ângulos.

O Desafio de Avaliar o Jogo Interior

O jogo interior vai além de simplesmente conduzir a bola para o centro do campo. Ele envolve a criação e a exploração estratégica de espaços dentro do bloco defensivo adversário, permitindo que os jogadores de ataque recebam a bola em posições ameaçadoras. Avaliar essa habilidade é um desafio, dado a complexidade dos movimentos dos jogadores e a constante interação entre as linhas ofensivas e defensivas.

Metodologia: Integração de Hull Convexo e Diagramas de Voronoi

Este modelo é fundamentado em duas ferramentas de análise espacial: o Hull Convexo e os diagramas de Voronoi, ambos adaptados para capturar a dinâmica do futebol.

  • Hull Convexo Modificado: Delimitando o Bloco Defensivo Adversário O Hull Convexo é uma técnica que define o perímetro do bloco defensivo do adversário, crucial para identificar os limites dentro dos quais uma equipe deve operar para criar jogo interior. Neste contexto, o Hull Convexo é ajustado para excluir o jogador atacante mais avançado, caso ele esteja claramente fora do bloco defensivo, concentrando-se no espaço real onde ocorre a interação tática.
  • Diagramas de Voronoi Adaptados: Mapeando Espaços Estratégicos Os diagramas de Voronoi dividem o campo em áreas onde cada jogador tem a maior probabilidade de alcançar a bola primeiro. Para esta análise, as células de Voronoi são ajustadas levando em conta a velocidade e a aceleração de cada jogador, resultando em um modelo mais preciso do espaço útil que cada um pode cobrir. As áreas de Voronoi geradas por jogadores dentro do Hull Convexo do adversário indicam os espaços que podem ser explorados para o jogo interior.

Aplicação Prática: Analisando o Jogo Interior em Ação

Este modelo foi implementado em partidas reais, como mostrado no vídeo que acompanha o artigo, que analisa a posse de bola do Real Madrid contra o Athletic Club. Na análise, observamos os espaços criados pelos jogadores do Real Madrid dentro do bloco defensivo do Athletic, utilizando seus movimentos e habilidades para encontrar áreas livres e estabelecer zonas eficazes para a recepção da bola. A constante “dança” entre os jogadores ofensivos e defensivos, que ajustam suas posições em resposta aos movimentos adversários, é claramente ilustrada no vídeo, destacando como as oportunidades de jogo interior podem ser geradas por meio do controle inteligente do espaço.

Conclusões: A Chave para um Jogo Interior Eficaz

Este modelo de análise inovador oferece aos treinadores uma ferramenta poderosa para medir e aprimorar o jogo interior de suas equipes. Ao entender como criar e explorar espaços dentro do bloco defensivo adversário, as equipes podem aumentar sua capacidade de desorganizar a defesa oponente e criar oportunidades de gol. A chave está na combinação dinâmica de jogadores ofensivos que se movimentam de forma inteligente dentro do bloco defensivo e na análise contínua de como esses movimentos influenciam o espaço disponível.

Perspectivas Futuras: Caminhando para um Futebol mais Inteligente

Com a integração da inteligência artificial e do aprendizado de máquina, este modelo tem o potencial de evoluir ainda mais, possibilitando previsões em tempo real e otimização tática durante as partidas. O futebol está entrando em uma nova era de análise, na qual ciência e tecnologia desempenham um papel crucial na tomada de decisões estratégicas. Essa abordagem não só aprimora o desempenho da equipe, mas também adiciona uma nova dimensão à nossa compreensão do jogo.

Fonte do projeto: https://github.com/roboflow/sports

Vídeo demonstrativo:

Sat, Aug 10, 2024

Minha IA companheira.

O Senstone é um gravador de voz inteligente que capta e converte automaticamente a fala em texto, armazenando as informações em forma de notas na nuvem. Este gadget opera offline, tornando-se uma ferramenta ideal para quem deseja capturar ideias em momentos em que não é possível acessar um celular ou bloco de anotações.

Desenvolvido como um dispositivo wearable, o Senstone pode ser fixado em locais como a camisa, mochila ou na pulseira do relógio, e até mesmo usado como colar. Essa versatilidade permite que o usuário faça anotações “mentais” enquanto caminha ou dirige, facilitando a captura de insights sem interromper suas atividades.

O processo de transcrição é feito em quase tempo real pela inteligência artificial do software da fabricante, que interpreta os áudios e os categoriza automaticamente como compromissos, tarefas ou outras notas relevantes. Essa atribuição inteligente assegura que cada nota seja arquivada e acessada no aplicativo correspondente de forma eficiente.

Estou planejando alguns avanços significativos para o futuro próximo, incluindo a integração do dispositivo com uma inteligência artificial local, prometendo expandir ainda mais suas capacidades. Novidades sobre essas atualizações serão anunciadas em breve aqui no Assunto Nerd, à medida que os testes laboratoriais progridem.

Thu, Aug 08, 2024

Criar facilmente aplicativos de IA generativa.

Os modelos de linguagem estão mudando a forma como construímos software, servindo como um orquestrador flexível entre fontes de conhecimento e interfaces de usuário. Construir esse tipo de software traz novos desafios para melhorar a qualidade, reduzir a latência e prototipar rapidamente. Hoje, estamos anunciando vários avanços nessa direção.

Customização de modelo mais simples e eficiente

Como os grandes modelos de linguagem estão encontrando rapidamente novos e mais especializados casos de uso, é fundamental que os desenvolvedores possam adaptar de forma rápida e eficiente os modelos de ponta para suas aplicações específicas. Para isso, estamos anunciando a capacidade de personalizar qualquer um de nossos modelos principais e especializados na La Plateforme, incluindo Mistral Large 2 e Codestral.

Os modelos podem ser personalizados usando um prompt base, poucos exemplos (few-shot prompting) ou ajuste fino (fine-tuning), e você pode trazer seu próprio conjunto de dados. Crucialmente, a personalização de modelos segue as técnicas desenvolvidas pela equipe científica da Mistral AI para criar modelos de referência fortes, então você pode esperar um desempenho semelhante dos seus modelos ajustados. Os desenvolvedores podem usar a personalização de modelos para integrar capacidades de IA generativa em suas aplicações com conhecimento de domínio específico, contexto ou tom.

Esperamos que o ajuste fino em nossos modelos altamente capazes desbloqueie uma riqueza de aplicações inovadoras e estamos ansiosos para ver o que será construído com isso. Confira nossa documentação sobre ajuste fino e experimente a personalização de modelos na La Plateforme.

Lançamento alfa de Agentes

Estamos também introduzindo uma versão inicial de Agentes, que envolve modelos com contexto e instruções adicionais, para exposição no Le Chat ou API. Agentes ajudam você a criar comportamentos e fluxos de trabalho personalizados com um conjunto simples de instruções e exemplos. Com as capacidades avançadas de raciocínio do Mistral Large 2, você pode adicionar fluxos de trabalho cada vez mais complexos com múltiplos agentes que são fáceis de compartilhar dentro da sua organização. Estamos trabalhando na conexão dos Agentes com ferramentas e fontes de dados e aguardamos ansiosos por seu feedback.

Versão estável do nosso SDK de cliente

Fizemos atualizações significativas na biblioteca mistralai para melhorar sua usabilidade e consistência, e hoje estamos lançando o mistralai 1.0, disponível tanto para Python quanto para Typescript. Saiba mais sobre nosso novo SDK e confira o guia de migração.

Wed, Aug 07, 2024

Modelos LLMs médico e financeiro.

Palmyra-Med e Palmyra-Fin são modelos que oferecem precisão incomparável para aplicações de IA generativa em medicina e finanças, superando outros modelos como GPT-4, Med-PaLM-2 e Claude 3.5 Sonnet, e passando no exame CFA nível III. Esses modelos são especialmente adequados para otimizar fluxos de trabalho de IA em setores conhecidos por suas rigorosas regulamentações e padrões de conformidade.

Palmyra-Med e Palmyra-Fin se juntam a uma série de LLMs de alto nível desenvolvidos pela Writer, incluindo Palmyra-X, um modelo de uso geral, e Palmyra-Vision, para análise de imagens. Combinados com a plataforma de IA generativa full-stack da Writer, que inclui tecnologia RAG integrada, proteções de IA e um conjunto de ferramentas para desenvolvedores, esses modelos facilitam a construção de aplicativos de IA médica e financeira compatíveis e eficientes.

Ambos os modelos, Palmyra-Med e Palmyra-Fin, estão disponíveis via Writer por meio de nossa API, ferramentas sem código e Writer Framework. Eles também podem ser acessados sob uma licença de modelo aberto, permitindo implantação local ou em nuvem privada. Para mais informações sobre licenciamento para uso comercial, entre em contato pelo e-mail sales@writer.com.

Melhorando os resultados dos pacientes com precisão médica recorde

Palmyra-Med é a versão mais recente do nosso modelo de saúde, e o mais preciso disponível. Em testes, o Palmyra-Med obteve uma média de 85,9% em benchmarks médicos, superando o Med-PaLM-2 em quase 2 pontos percentuais, mesmo quando comparado ao desempenho de zero-shot do Palmyra.

Os resultados mostram um modelo confiável que pode melhorar os resultados dos pacientes e apoiar pesquisas médicas através de sua capacidade de lidar com tarefas complexas em diversas disciplinas:

  • Conhecimento Clínico e Anatomia: Com pontuações de 90,9% em Conhecimento Clínico MMLU e 83,7% em Anatomia MMLU, Palmyra-Med-70b demonstra profunda compreensão de procedimentos clínicos e anatomia humana, útil para diagnósticos precisos e planejamento de tratamentos.
  • Genética e Medicina Universitária: Com 94,0% em Genética Médica e 84,4% em Medicina Universitária, o modelo se destaca na interpretação de dados genéticos e aplicação de conhecimentos médicos complexos, cruciais para aconselhamento genético e educação médica.
  • Pesquisa Biomédica: Com 80% no PubMedQA, Palmyra-Med-70b mostra sua capacidade de extrair e analisar informações da literatura biomédica, apoiando pesquisas e práticas médicas baseadas em evidências.

Palmyra-Med-70b oferece desempenho superior a um custo de US$ 10 por 1 milhão de tokens de produção, significativamente mais barato que modelos maiores como o GPT-4, que custa US$ 60 pela mesma quantidade de produção. Isso torna Palmyra-Med-70b uma opção atraente para profissionais e instituições médicas, ilustrando uma vantagem importante dos modelos específicos de domínio.

Trazendo Experiência Financeira Incomparável para o Writer

A adoção de IA generativa no setor financeiro enfrenta desafios únicos: demonstrações financeiras extensas, terminologia complexa e análises de mercado diferenciadas. Para superar esses obstáculos, combinamos um conjunto de dados de treinamento financeiro bem selecionado com dados de instruções de ajuste fino personalizados, criando um LLM financeiro altamente preciso. Este modelo pode potencializar diversos casos de uso, como:

  • Análise e Previsões de Tendências Financeiras: Examinar a dinâmica do mercado e desenvolver previsões para o desempenho financeiro.
  • Análise de Investimento: Produzir avaliações detalhadas de empresas, indústrias ou indicadores econômicos.
  • Avaliação de Riscos: Avaliar os perigos potenciais associados a diferentes ferramentas ou abordagens financeiras.
  • Estratégia de Alocação de Ativos: Recomendar combinações de investimentos adaptadas às preferências de risco individuais e aos objetivos financeiros.

Desempenho Superior do Palmyra-Fin em Relação a Modelos de Uso Geral

O Palmyra-Fin apresenta uma melhoria significativa em relação a modelos de uso geral, como o GPT-4, que obteve anteriormente um desempenho de 33% no exame.

Testamos o Palmyra-Fin em um benchmark de avaliação longa para medir seu desempenho em diversos casos de uso financeiro do mundo real. Ele superou modelos populares como Claude 3.5 Sonnet, GPT-4o e Mixtral-8x7b, demonstrando suas habilidades e experiência financeira excepcionais.


Introdução aos Palmyra LLMs

Os LLMs específicos de domínio estão na vanguarda da inovação em IA, transformando a forma como as indústrias constroem aplicações especializadas. A Writer lidera esse movimento com modelos como Palmyra-Med e Palmyra-Fin, que possuem profundo conhecimento específico do setor e são ideais para uso corporativo. Esses modelos prometem maior precisão, eficiência, melhor gerenciamento de dados e conformidade regulatória. Ao permitir inovações mais rápidas e fornecer soluções personalizadas para desafios únicos do mercado, Palmyra-Med e Palmyra-Fin oferecem uma vantagem competitiva distinta, anunciando uma nova era de soluções de IA inteligentes e sustentáveis.