O serviço NVIDIA NeMo LLM ajuda desenvolvedores a personalizar modelos de linguagem enormes, o serviço NVIDIA BioNeMo ajuda pesquisadores a gerar e prever moléculas, proteínas e DNA
SANTA CLARA, Califórnia — GTC — 20 de setembro de 2022 — A NVIDIA anuncia dois novos grandes serviços de cloud de modelos de linguagem IA, o NVIDIA NeMo Large Language Model Service e o NVIDIA BioNeMo LLM Service, que permitem que os desenvolvedores adaptarem facilmente os LLMs e implantarem aplicações personalizadas de IA para geração de conteúdo, resumo de texto, chatbots, desenvolvimento de códigos, bem como estrutura de proteínas e previsões de propriedades biomolecular e muito mais.
O NeMo LLM Service permite que os desenvolvedores adaptem rapidamente uma série de modelos de base pré-treinados usando um método de treinamento chamado prompt learning na infraestrutura gerenciada pela NVIDIA. O NVIDIA BioNeMo Service é uma interface de programação de aplicações (API) em cloud, que expande os casos de uso do LLM para além da linguagem e em aplicações científicas, para acelerar a descoberta de medicamentos para empresas farmacêuticas e de biotecnologia.
"Grandes modelos de linguagem têm o potencial de transformar todos os setores", diz Jensen Huang, fundador e CEO da NVIDIA. "A capacidade de ajustar modelos de base coloca o poder dos LLMs ao alcance de milhões de desenvolvedores, que agora podem criar serviços de linguagem e impulsionar descobertas científicas sem precisar construir um modelo maciço do zero."
Serviço NeMo LLM aumenta a precisão com aprendizado imediato e acelera as implantações
Com o NeMo LLM Service, os desenvolvedores podem usar seus próprios dados de treinamento para personalizar modelos de fundação que variam de 3 bilhões de parâmetros até o Megatron de 530 bilhões, um dos maiores LLMs do mundo. O processo leva apenas alguns minutos ou horas, em comparação com as semanas ou meses necessários para treinar um modelo do zero.
Os modelos são personalizados com aprendizado imediato, que usa uma técnica chamada p-tuning. Isso permite que os desenvolvedores usem apenas algumas centenas de exemplos para personalizar rapidamente modelos de base treinados originalmente com bilhões de pontos de dados. O processo de personalização gera tokens de prompt específicos para tarefas, que são combinados com os modelos de base para oferecer maior precisão e respostas mais relevantes para casos de uso específicos.
Os desenvolvedores podem personalizar para vários casos de uso utilizando o mesmo modelo e gerando muitos tokens de prompt diferentes. Um recurso de playground oferece uma opção sem código para experimentar e interagir facilmente com os modelos, aumentando ainda mais a eficácia e a acessibilidade dos LLMs para casos de uso de setores específicos.
Depois de prontos para implantação, os modelos ajustados podem ser executados em instâncias na nuvem, sistemas locais ou por meio de API.
BioNeMo LLM Service permite que pesquisadores aproveitem o poder de modelos massivos
O BioNeMo LLM Service inclui dois novos modelos de linguagem BioNeMo para aplicações de química e biologia. O serviço fornece suporte para dados de proteínas, DNA e química para ajudar os pesquisadores a descobrirem padrões e insights em sequências biológicas.
O BioNeMo permite que os pesquisadores expandam o escopo de seu trabalho aproveitando modelos que contêm bilhões de parâmetros. Esses modelos maiores podem armazenar mais informações sobre a estrutura das proteínas, relações evolutivas entre genes e, até mesmo, gerar novas biomoléculas para aplicações terapêuticas.
“As soluções da NVIDIA oferecem um grande avanço na área de pesquisas científicas e para a área de saúde. O processamento de um enorme volume de dados em um curto período de tempo é benéfico em todos os aspectos da pesquisa e do desenvolvimento para o setor”, afirma Marcio Aguiar, Diretor da NVIDIA Enterprise para a América Latina.
API em nuvem oferece acesso a Megatron 530B, outros modelos prontos
Além de ajustar os modelos básicos, os serviços LLM incluem a opção de usar modelos prontos e personalizados por meio de uma API na nuvem.
Isso dá aos desenvolvedores acesso a uma ampla variedade de LLMs pré-treinados, incluindo Megatron 530B. Também fornece acesso a modelos T5 e GPT-3 criados com o framework NVIDIA NeMo Megatron — agora disponível em beta aberto — para suportar uma ampla gama de aplicações e requisitos de serviço multilíngue.
Líderes em setores automotivo, de computação, educação, saúde, telecomunicações e outros setores estão usando NeMo Megatron para serem pioneiros em oferecer serviços para clientes em chinês, inglês, coreano, sueco e outros idiomas.
Disponibilidade
Os serviços NeMo LLM e BioNeMo e APIs em cloud devem estar disponíveis com acesso antecipado a partir do próximo mês. Os desenvolvedores podem se inscrever agora para obter mais detalhes.
A versão beta do framework NeMo Megatron está disponível no NVIDIA NGC™ e é otimizada para ser executada no NVIDIA DGX™ Foudry e no NVIDIA DGX SuperPOD™, bem como em instâncias de cloud aceleradas da Amazon Web Services, Microsoft Azure e Oracle Cloud Infrastructure.
Para experimentar a estrutura do NeMo Megatron, os desenvolvedores podem testar os laboratórios do NVIDIA LaunchPad gratuitamente.
Confira a apresentação de Jensen Huang no GTC 22 para saber mais sobre grandes modelos de linguagem com tecnologia NVIDIA AI.
Sobre a NVIDIA
Desde sua fundação em 1993, a NVIDIA (NASDAQ: NVDA) tem sido pioneira em computação acelerada. A invenção da GPU pela empresa em 1999 estimulou o crescimento do mercado de games para PC, redefiniu a computação gráfica e iniciou a era da IA moderna. A NVIDIA agora é uma empresa de computação full-stack com ofertas em escala de data center que estão reformulando o setor. Mais informações em: https://nvidianews.nvidia.com/.
Acesse também:
Site oficial da NVIDIA no Brasil: https://www.nvidia.com/pt-br/
Facebook: @NVIDIABrasil
Twitter: @NVIDIABrasil
YouTube: NVIDIA Latinoamérica
Algumas declarações neste comunicado de imprensa incluindo, entre outras, declarações sobre: os benefícios, impacto, desempenho, e características da NVIDIA OVX, NVIDIA Omniverse Enterprise, a GPU NVIDIA L40 e o NVIDIA ConnectX-7 SmartNIC; NVIDIA OVX a ser entregue ao BMW Group, Jaguar Land Rover e outras equipas de design e engenharia; redefinição de gémeos digitais em grande escala como quase todas as indústrias planeiam, concebem e constroem no mundo físico; e a disponibilidade dos sistemas L40 e OVX são declarações prospectivas que estão sujeitas a riscos e incertezas que podem fazer com que os resultados sejam materialmente diferentes de expectativas. Entre os fatores importantes que podem fazer com que os resultados reais sejam materialmente diferentes incluem-se: condições económicas globais; as nossas confiança em terceiros para fabricar, montar, embalar e testar os nossos produtos; o impacto do desenvolvimento tecnológico e concorrência; desenvolvimento de novos produtos e tecnologias ou aperfeiçoamentos do nosso produto e tecnologias existentes; aceitação no mercado dos nossos produtos ou dos produtos dos nossos parceiros; defeitos de concepção, fabrico ou de software; alterações no consumidor preferências ou exigências; alterações nas normas e interfaces da indústria; perda inesperada de desempenho dos nossos produtos ou tecnologias quando integradas em sistemas; bem como outros fatores detalhados de tempos a tempos nos relatórios mais recentes Os ficheiros da NVIDIA na Securities and Exchange Commission, ou SEC, incluindo, entre outros, o seu relatório anual no Formulário 10-K e relatórios trimestrais no Formulário 10-Q. Cópias dos relatórios arquivados junto da SEC são publicadas no sítio web da empresa e estão disponíveis da NVIDIA, sem custos. Estas declarações prospectivas não são garantias de desempenho futuro e falam apenas a partir de a presente data e, exceto quando exigido por lei, a NVIDIA renuncia a qualquer obrigação de atualizar estas declarações prospectivas para refletir acontecimentos ou circunstâncias futuras.
Informações para a imprensa:
Sing Comunicação de Resultados
20/09/2022