Notícias

Sofya adota Llama e se aproxima de 1 milhão de consultas mensais de saúde

A Sofya, empresa de inteligência artificial para o setor de saúde, obteve redução de até 30% no tempo gasto com documentação e tarefas administrativas por consulta ao adotar o Llama, grande modelo de linguagem (LLM) da Meta. Profissionais de saúde relataram melhorias no fluxo de trabalho e na experiência do paciente, com índice médio de satisfação de 90%.

A empresa diz ter optado por um modelo de linguagem de código aberto. Foram considerados fatores como capacidade, transparência e desempenho, além do ecossistema de desenvolvedores e cientistas que contribuem para aprimorar os modelos.

“Com o aumento da eficiência e escalabilidade proporcionado pela tecnologia, estamos nos preparando para alcançar a marca de 1 milhão de consultas por mês”, diz em comunicado Marcelo Mearim, CEO da Sofya. “A adaptabilidade do Llama para diferentes casos de uso faz dele uma opção robusta para empresas que enfrentam desafios semelhantes.”

Veja também: Luft Healthcare aposta em solução de inventário de emissões de carbono

Os modelos da Sofya são treinados e hospedados na Oracle Cloud utilizando Sglang para inferência e entrega de soluções. A implementação do Llama contou com recursos disponibilizados pela comunidade de código aberto, incluindo modelos pré-treinados e ferramentas oferecidas pela plataforma Hugging Face e LangSmith.

O modelo foi adaptado pela equipe da Sofya com treinamentos específicos em dados clínicos, o que permitiu, segundo ela, automatizar tarefas como estruturação de informações médicas, reconhecimento de entidades clínicas e respostas a perguntas médicas. A equipe treinou a versão com oito bilhões de parâmetros do Llama.

A empresa diz ter usado uma técnica de quantização que reduz o tamanho dos modelos maiores em até 40%, preservando 99% da acurácia original. Essa otimização diminui “significativamente” o consumo de memória e o custo de inferência, garantindo resultados “ágeis e precisos”, garante a companhia.

A equipe diz ter utilizado técnicas para melhorar o desempenho de modelos menores, como a destilação, na qual um modelo maior (como o Llama 405B) atua como “professor”, transferindo o que aprendeu para modelos menores (como os de 70B, 8B e 3B, que atuam como “alunos”). A abordagem gera dados artificiais utilizados para aprimorar a precisão e a agilidade dos modelos menores.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Recent Posts

Pure Storage aposta em mudança de paradigma para gestão de dados corporativos

A Pure Storage está redefinindo sua estratégia de mercado com uma abordagem que abandona o…

1 semana ago

A inteligência artificial é mesmo uma catalisadora de novos unicórnios?

A inteligência artificial (IA) consolidou-se como a principal catalisadora de novos unicórnios no cenário global…

1 semana ago

Finlândia ativa a maior bateria de areia do mundo

À primeira vista, não parece grande coisa. Mas foi na pequena cidade de Pornainen, na…

1 semana ago

Reforma tributária deve elevar custos com mão de obra no setor de tecnologia

O processo de transição previsto na reforma tributária terá ao menos um impacto negativo sobre…

1 semana ago

Relação entre OpenAI e Microsoft entra em clima de tensão, aponta WSJ

O que antes parecia uma aliança estratégica sólida começa a mostrar rachaduras. Segundo reportagem do…

1 semana ago

OpenAI fecha contrato de US$ 200 milhões com Departamento de Defesa dos EUA

O Departamento de Defesa dos Estados Unidos firmou um contrato de US$ 200 milhões com…

1 semana ago