21 de março de 2023

NVIDIA lança plataformas de inferência para grandes modelos de linguagem (LLMs) e cargas de trabalho de IAs generativas

 Olá, amores!

A NVIDIA lança quatro plataformas de inferência otimizadas para um conjunto diversificado de aplicações rápidas e emergentes de IAs generativas que ajudarão os desenvolvedores a construírem rapidamente aplicações especialmente impulsionadas por IA, que podem fornecer novos serviços e insights. 

As plataformas combinam um stack completo de software de inferência da NVIDIA com os mais recentes processadores NVIDIA Ada, Hopper e Grace Hopper - incluindo a GPU NVIDIA L4 Tensor Core e a GPU NVIDIA H100 NVL, ambas também lançadas nesta semana. Cada plataforma é otimizada para cargas de trabalho sob demanda, incluindo IA de vídeo, geração de imagens, implementação de modelos em linguagem grande e recomendação de inferência.

"A ascensão da IA generativa está exigindo plataformas de computação de inferência mais poderosas", diz Jensen Huang, fundador e CEO da NVIDIA. "O número de aplicações para IA generativa é infinito, limitado apenas pela imaginação humana". Oferecer aos desenvolvedores a mais poderosa e flexível plataforma de computação de inferência acelerará a criação de novos serviços que melhorarão nossas vidas de formas ainda não imagináveis".

Acelerando um conjunto diversificado de cargas de trabalho de inferência de IA

Cada uma das plataformas contém uma GPU NVIDIA otimizada para cargas de trabalho específicas de inferência de IA generativa, bem como softwares especializados:

  • NVIDIA L4 para IA de vídeo pode oferecer 120x mais performance de vídeo impulsionado por IA do que as CPUs, combinado com 99% melhor eficiência energética. Servindo como uma GPU universal para praticamente qualquer carga de trabalho, oferece recursos aprimorados de decodificação e transcodificação de vídeo, streaming de vídeo, realidade aumentada, vídeo de IA generativa e muito mais.

  • NVIDIA L40 para geração de imagens é otimizada para gráficos e geração de imagens 2D, vídeo e 3D para IA. A plataforma L40 serve como o motor de NVIDIA Omniverse™, uma plataforma para construir e operar aplicações de metaverso no data center, fornecendo 7x a performance de inferência para difusão estável e 12x a performance do Omniverse em relação à geração anterior.

  • NVIDIA H100 NVL para implantação de modelo de linguagem grande é ideal para implementar LLMs massivos, como o ChatGPT em escala. A nova NVL H100 NVL com 94GB de memória com aceleração do transformer engine proporciona uma performance de inferência até 12x mais rápida em GPT-3 em comparação com a geração anterior A100 em escala de data center.]

  • NVIDIA Grace Hopper para modelos de recomendação é ideal para modelos de recomendação gráfica, bancos de dados vetoriais e redes neurais gráficas. Com a conexão NVLink-C2C de 900 GB/s entre CPU e GPU, o Grace Hopper pode fornecer transferências 7x mais rápidas e consultas de dados em comparação com a PCIe Gen 5.

As plataformas apresentam um layer de conjunto de softwares NVIDIA AI Enterprise, que inclui o NVIDIA TensorRT™, um kit de desenvolvimento de software para a inferência de deep learning de alto desempenho, e o NVIDIA Triton Inference Server™, um software de código aberto para a inferência que ajuda a padronizar a implementação do modelo.

"Grandes Modelos de Linguagem (LLMs) e chatbots oferecem muitos benefícios para empresas e organizações como, por exemplo, experiências personalizadas que podem economizar tempo e dinheiro para as companhias. Essa novidade contribuirá para diversos setores", destaca Marcio Aguiar, diretor da divisão Enterprise da NVIDIA para América Latina.

Adoção antecipada e suporte

O Google Cloud é um parceiro-chave das nuvens e um dos primeiros clientes das plataformas de inferência da NVIDIA. Ele está integrando a plataforma L4 em sua plataforma de machine learning, Vertex AI, e é o primeiro provedor de serviços de nuvem a oferecer instâncias L4, com prévia privada de suas máquinas virtuais G2 lançadas.

NVIDIA e Google anunciaram separadamente duas das primeiras organizações a ter acesso antecipado ao L4 no Google Cloud - Descript, que usa IA generativa para ajudar os criadores a produzir vídeos e podcasts, e WOMBO, que oferece, impulsionado por IA, texto para a aplicação de arte digital chamado Dream.

Kuaishou é outra empresa que fornece um aplicativo de vídeo curtos que aproveita as GPUs para decodificar a entrada de vídeo streaming ao vivo, capturar quadros-chave e otimizar áudio e vídeo. Ele então usa um modelo de grande escala baseado em transformer para entender o conteúdo multimodal e melhorar as taxas de “click-through” para centenas de milhões de usuários em todo o mundo. 

"O sistema de recomendação Kuaishou serve uma comunidade com mais de 360 milhões de usuários diários que contribuem diariamente com 30 milhões de vídeos UGC", diz Yue YU, vice-presidente sênior da Kuaishou. "Em comparação com as CPUs sob o mesmo custo total de propriedade, as GPUs da NVIDIA têm aumentado o rendimento de ponta a ponta do sistema em 11x, e reduzido a latência em 20%".

D-ID, uma plataforma de tecnologia de IA generativa líder, eleva o conteúdo de vídeo para profissionais usando GPUs NVIDIA L40 para gerar humanos digitais fotorrealistas a partir de texto - dando um rosto a qualquer conteúdo enquanto reduz o custo e o incômodo da produção de vídeo em escala.

"O desempenho da L40 foi simplesmente incrível. Com ela, conseguimos dobrar nossa velocidade de inferência", afirma Or Gorodissky, vice-presidente de pesquisa e desenvolvimento da D-ID. "A D-ID está entusiasmada em usar este novo hardware como parte de nossa oferta que permite a transmissão em tempo real da IA humana com desempenho e resolução sem precedentes, reduzindo simultaneamente nossos custos computacionais".

Seyhan Lee, um dos principais estúdios de produção de IA, usa a IA generativa para desenvolver experiências imersivas e conteúdos criativos para os filmes, broadcast e indústrias de entretenimento.

"A GPU L40 proporciona um incrível impulso na performance para nossas aplicações de IA generativas", conta Pinar Demirdag, co-fundador de Seyhan Lee. "Com a capacidade de inferência e tamanho da memória da L40, podemos implementar modelos de última geração e fornecer serviços inovadores a nossos clientes com incrível velocidade e precisão".

A Cohere, pioneira líder em IA de linguagem, administra uma plataforma que capacita os desenvolvedores a construir modelos de linguagem natural, mantendo os dados privados e seguros.

"A nova plataforma de inferência H100 de alto desempenho da NVIDIA pode nos permitir fornecer serviços melhores e mais eficientes a nossos clientes com nossos modelos generativos de última geração, potencializando uma variedade de aplicações de PNL, tais como IA conversacional, busca empresarial multilíngue e extração de informações", diz Aidan Gomez, CEO da Cohere.

Disponibilidade

Além do Grace Hopper Superchip e da GPU H100 NVL, que são esperados para o segundo semestre do ano, a plataforma de inferência da NVIDIA para IA generativa está disponível imediatamente através da rede mundial de fabricantes de computadores e parceiros provedores de serviços em nuvem.

A GPU NVIDIA L4 está disponível em preview privada na plataforma Google Cloud e também disponível a partir de uma rede global de mais de 30 fabricantes de computadores, incluindo Advantech, ASUS, Atos, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo, QCT e Supermicro.

A GPU NVIDIA L40 está atualmente disponível a partir dos principais integradores, incluindo ASUS, Dell Technologies, GIGABYTE, Lenovo e Supermicro, com o número de plataformas parceiras definidas para se expandir ao longo do ano. 

A NVIDIA AI Enterprise está agora disponível nos principais marketplaces de nuvem e de dezenas de fornecedores e parceiros de sistemas. Com o NVIDIA AI Enterprise, os clientes recebem Suporte Empresarial NVIDIA, revisões regulares de segurança e estabilidade da API para o NVIDIA Triton Inference Server™, TensorRT™ e mais de 50 modelos e estruturas pré-treinadas. 

Laboratórios práticos para experimentar a plataforma de inferência NVIDIA para IA generativa estão disponíveis imediatamente, sem custo, no NVIDIA LaunchPad. Os laboratórios de amostra incluem treinamento e implementação de um chatbot de suporte, implementação de uma carga de trabalho ponta-a-ponta de IA, ajuste e implementação de um modelo de linguagem na H100 e implementação de um modelo de detecção de fraude com o NVIDIA Triton. 

 

Sobre a NVIDIA

Desde sua fundação em 1993, a NVIDIA (NASDAQ: NVDA) tem sido pioneira em computação acelerada. A invenção da GPU pela empresa em 1999 estimulou o crescimento do mercado de games para PC, redefiniu a computação gráfica, iniciou a era da IA moderna e tem ajudado na criação do metaverso. A NVIDIA agora é uma empresa de computação full-stack com soluções em escala de data center que estão revolucionando o setor. Mais informações em: https://blog.nvidia.com.br/.

Acesse também:

Site oficial da NVIDIA no Brasil: https://www.nvidia.com/pt-br/

Facebook: @NVIDIABrasil

Twitter: @NVIDIABrasil

YouTube: NVIDIA Latinoamérica

NVIDIA leva a IA generativa às empresas de todo o mundo com serviços em nuvem para a criação de grandes modelos de linguagens e modelos visuais

 Olá, amores!

Para acelerar a adoção empresarial da IA generativa, a NVIDIA anuncia um conjunto de serviços em nuvem que permitem às empresas construir, refinar e operar modelos personalizados de grandes linguagens e modelos de IA generativa, que são treinados com seus próprios dados de propriedade e criados para suas tarefas específicas de domínio.

Adobe, Getty Images, Morningstar, Quantiphi e Shutterstock estão entre as empresas que criarão e utilizarão modelos de IA, aplicações e serviços que estão sendo criados com os novos serviços de modelos NVIDIA AI Foundations que abrangem linguagem, imagens, vídeo e 3D.

As empresas podem usar o serviço de linguagem NVIDIA NeMo™ e o serviço de imagem, vídeo e 3D da NVIDIA Picasso para construir aplicações proprietárias de domínio específico, IA generativa para bate-papo inteligente e suporte ao cliente, criação de conteúdo profissional, simulação digital e muito mais. Separadamente, a NVIDIA anuncia também novos modelos para o serviço em nuvem da NVIDIA BioNeMo™ para biologia.

"A IA generativa está impulsionando a rápida adoção da IA e reinventando inúmeras indústrias", diz Jensen Huang, fundador e CEO da NVIDIA. "A NVIDIA AI Foundation permite às empresas personalizar os modelos de fundação com seus próprios dados para gerar os recursos mais valiosos da humanidade - inteligência e criatividade".

Ajudando as empresas a construir aplicações de IAs personalizadas

Os serviços NeMo e Picasso são executados no NVIDIA DGX Cloud™, que é acessível através de um navegador de internet. Os desenvolvedores podem utilizar os modelos oferecidos em cada serviço por meio de interfaces simples de programação de aplicações (APIs). Uma vez que os modelos estejam prontos para implementação, as empresas podem executar cargas de trabalho de inferência em escala usando os serviços em nuvem da NVIDIA AI Foundations.

Cada serviço em nuvem inclui seis elementos: modelos pré-treinados, estruturas para processamento de dados, bancos de dados vetoriais e personalização, motores de inferência otimizados, APIs e suporte de especialistas da NVIDIA para ajudar as empresas a afinar modelos para seus casos de uso personalizados.

“Entre os vários benefícios deste lançamento estão as aplicações com IA generativa. Essa inteligência traz maior eficiência, previsão e maior produtividade para as empresas, por isso que esse novo conjunto de serviços da NVIDIA fará a diferença para empresas de diferentes setores em todo mundo”, destaca Marcio Aguiar, diretor da divisão Enterprise da NVIDIA para América Latina.

NeMo Service permite às empresas personalizar rapidamente os modelos linguísticos da Foundation

O serviço de nuvem NeMo permite que os desenvolvedores tornem os grandes modelos de linguagem (LLMs – Large Language Models) mais relevantes para as empresas, definindo áreas de foco, adicionando conhecimento específico de domínio e ensinando habilidades funcionais.

Modelos de tamanhos variados - de 8 bilhões a 530 bilhões de parâmetros - disponíveis no serviço, são atualizados regularmente com dados adicionais de treinamento, dando às empresas amplas opções para construir aplicações que se alinham com os requisitos comerciais de velocidade, precisão e complexidade de tarefas.

Usando os recursos de recuperação de informações inclusos no serviço NeMo, os clientes poderão aumentar as LLMs com seus dados de propriedade em tempo real. Isto permite que as empresas personalizem modelos para alimentar aplicações de inteligência de mercado, busca corporativa, chatbots e atendimento ao cliente, e muito mais.

Morningstar, um fornecedor líder de insights independentes sobre investimentos, está trabalhando com NeMo para pesquisar serviços avançados de inteligência.

"Grandes modelos de linguagem (LLMs) nos oferecem a capacidade de coletar dados perspicazes de conteúdo estruturado e não estruturado altamente complexo em uma escala maior, enquanto priorizamos a qualidade e a velocidade dos dados", afirma Shariq Ahmad, chefe de Tecnologia de Coleta de Dados da Morningstar. “Nossa estrutura de qualidade inclui um processo ‘human-in-the-loop’ que se alimenta do retuning do modelo para garantir que produzimos conteúdo de cada vez mais alta qualidade”. A Morningstar está usando o NeMo em sua pesquisa e desenvolvimento de coleta de dados sobre como os LLMs podem digitalizar e resumir informações de fontes como documentos financeiros para extrair rapidamente inteligência de mercado.

A Quantiphi, uma empresa de engenharia digital de IA e uma das parceiras de prestação de serviços da NVIDIA, está trabalhando com NeMo para construir uma solução modular de IA generativa. A oferta permitirá que as empresas construam LLMs personalizados que são equipados com informações atualizadas para aumentar a produtividade dos funcionários.

Serviço NVIDIA Picasso acelera a simulação e o design criativo através da imagem, vídeo e 3D

NVIDIA Picasso é um serviço em nuvem para a construção e implementação de aplicações generativas de imagem, vídeo e 3D com recursos avançados de texto para imagem, texto para vídeo e texto para 3D, com super poderes para a criatividade, design e simulação digital através de simples APIs da nuvem.

Os fabricantes de software, provedores de serviços e empresas podem usar NVIDIA Picasso para treinar modelos de base NVIDIA Edify em seus dados proprietários para construir aplicações que utilizam prompts de texto natural para criar e personalizar rapidamente conteúdo visual para centenas de casos de uso, incluindo design de produtos, digital twins, narração de histórias e criação de personagens.

Para construir aplicações personalizadas, as empresas também podem começar com um conjunto de modelos Edify do NVIDIA Picasso que são pré-treinados com dados totalmente licenciados. Além disso, eles podem usar NVIDIA Picasso para otimizar e executar seus próprios modelos generativos de IA.

Líderes da indústria em parceria com a NVIDIA para avançar a produtividade de profissionais criativos

As principais empresas de conteúdo visual estão colaborando com a NVIDIA para construir modelos personalizados com os serviços do NVIDIA Picasso para avançar a produtividade dos profissionais criativos.

NVIDIA e Adobe anunciam que expandirão sua parceria de longa data na pesquisa e desenvolvimento para criar a próxima geração de futuros modelos de IA generativos. As empresas irão co-desenvolver os modelos com foco em transparência e credenciais de conteúdo, turbinados pela Iniciativa de Autenticidade de Conteúdo da Adobe. Para acelerar os fluxos de trabalho dos principais criadores do mundo, alguns desses modelos serão desenvolvidos em conjunto e trazidos ao mercado através de produtos emblemáticos da Adobe Creative Cloud como Photoshop, Premiere Pro e After Effects, bem como através do NVIDIA Picasso.

NVIDIA e Getty Images, uma empresa global de criação e comercialização de conteúdo visual, estão colaborando para treinar modelos de foundation responsáveis por texto para imagem e texto para vídeo. Os modelos permitirão a criação de imagens e vídeos usando simples instruções de texto e serão treinados sobre os ativos totalmente licenciados da Getty Images. A Getty Images fornecerá royalties aos artistas sobre quaisquer receitas geradas pelos modelos. 

NVIDIA e Shutterstock, uma plataforma criativa global para marcas e empresas de mídia, estão juntas colaborando para treinar um modelo de foundation generativo de texto para 3D usando o serviço NVIDIA Picasso para simplificar a criação de modelos 3D detalhados e reduzir o tempo necessário para construir modelos 3D de dias para minutos. Assets e metadados totalmente licenciados do Shutterstock serão usados para treinamento, e o Shutterstock compensará os artistas através de seu fundo contribuinte. Uma vez pronto para implementação, o Shutterstock planeja oferecer o modelo em sua plataforma para ajudar a simplificar a criação de assets 3D para produção criativa, bem como acelerar o desenvolvimento de gêmeos digitais industriais e composição do mundo virtual 3D no NVIDIA Omniverse.

Disponibilidade

O serviço de IA generativa NeMo na nuvem está em acesso antecipado. O serviço NVIDIA Picasso está em pré-visualização privada. Os desenvolvedores podem solicitar o acesso a cada um deles nos respectivos links. Veja Huang discutir NVIDIA AI Foundation em sua apresentação de abertura do GTC 2023.

 

Sobre a NVIDIA

Desde sua fundação em 1993, a NVIDIA (NASDAQ: NVDA) tem sido pioneira em computação acelerada. A invenção da GPU pela empresa em 1999 estimulou o crescimento do mercado de games para PC, redefiniu a computação gráfica, iniciou a era da IA moderna e tem ajudado na criação do metaverso. A NVIDIA agora é uma empresa de computação full-stack com soluções em escala de data center que estão revolucionando o setor. Mais informações em: https://blog.nvidia.com.br/.

Acesse também:

Site oficial da NVIDIA no Brasil: https://www.nvidia.com/pt-br/

Facebook: @NVIDIABrasil

Twitter: @NVIDIABrasil

YouTube: NVIDIA Latinoamérica

 

Algumas declarações neste comunicado à imprensa, incluindo, mas não se limitando a, declarações sobre o assunto: os benefícios, impacto, desempenho, características e disponibilidade de nossos produtos, colaborações, parcerias e tecnologias, incluindo NVIDIA AI Foundations Cloud Services, NVIDIA NeMo, NVIDIA Picasso, NVIDIA BioNeMo, NVIDIA DGX Cloud, NVIDIA Edify foundation models, e NVIDIA Omniverse; IA generativa transformando rapidamente as indústrias e o mundo on-line; co-desenvolvimento de modelos generativos de IA com foco na atribuição e proveniência do conteúdo, alimentado pela Iniciativa de Autenticidade de Conteúdo da Adobe; e desenvolvimento de modelos de fundação responsáveis de texto para imagem e de texto para vídeo com a Getty Images são declarações prospectivas que estão sujeitas a riscos e incertezas que podem causar resultados materialmente diferentes das expectativas. Entre os fatores importantes que podem fazer com que os resultados reais sejam materialmente diferentes: condições econômicas globais; nossa dependência de terceiros para fabricar, montar, embalar e testar nossos produtos; o impacto do desenvolvimento tecnológico e da concorrência; desenvolvimento de novos produtos e tecnologias ou melhorias em nossos produtos e tecnologias existentes; aceitação de mercado de nossos produtos ou dos produtos de nossos parceiros; defeitos de projeto, fabricação ou software; mudanças nas preferências ou demandas dos consumidores; mudanças nos padrões e interfaces da indústria; perda inesperada de desempenho de nossos produtos ou tecnologias quando integrados em sistemas; bem como outros fatores detalhados de tempos em tempos nos relatórios mais recentes da NVIDIA com a Securities and Exchange Commission, ou SEC, incluindo, mas não limitado a, seu relatório anual no Formulário 10-K e relatórios trimestrais no Formulário 10-Q. Cópias dos relatórios arquivados junto à SEC são publicadas no website da empresa e estão disponíveis na NVIDIA sem custos. Estas declarações prospectivas não são garantias de desempenho futuro e falam apenas a partir da data de hoje e, exceto conforme exigido por lei, a NVIDIA renuncia a qualquer obrigação de atualizar estas declarações prospectivas para refletir eventos ou circunstâncias futuras.

© 2023 NVIDIA Corporation. Todos os direitos reservados. NVIDIA, o logotipo NVIDIA, BioNeMo, DGX, DGX Cloud e NVIDIA NeMo são marcas comerciais e/ou marcas registradas da NVIDIA Corporation nos Estados Unidos e em outros países. Outros nomes de empresas e produtos podem ser marcas comerciais das respectivas empresas às quais estão associados. Características, preços, disponibilidade e especificações estão sujeitas a alterações sem aviso prévio.

NVIDIA lança a DGX Cloud, possibilitando com que as empresas tenham acesso instantâneo ao supercomputador IA a partir de um navegador de internet

 Olá, amores!

A NVIDIA anuncia a NVIDIA DGX Cloud™, um serviço de supercomputação de IA que dá às empresas acesso imediato à infraestrutura e software necessários para formar modelos avançados de IA generativa e outras aplicações revolucionárias. 

O DGX Cloud fornece clusters dedicados de supercomputação de IA NVIDIA DGX™, em conjunto com o software NVIDIA AI. O serviço permite que cada empresa acesse ao seu próprio supercomputador de IA usando um simples navegador de internet, removendo a complexidade de aquisição, implementação e gestão de infraestruturas no local (on-premises).

As empresas poderão alugar mensalmente clusters de nuvens DGX, o que garantem de forma rápida e fácil escalar o desenvolvimento de grandes cargas de trabalho de formação multinode sem ter de esperar por recursos de aceleração computacional que são frequentemente de alta demanda.

"Estamos no momento do iPhone da IA. As startups estão construindo produtos e modelos de negócio disruptivos, e as incubadoras estão atentas a isso", diz Jensen Huang, fundador e CEO da NVIDIA. "A DGX Cloud dá aos clientes acesso instantâneo à supercomputação da NVIDIA AI em nuvem de escala global".

A NVIDIA está fazendo parceria com os principais provedores de serviços de nuvem para hospedar a infraestrutura DGX, começando com a Oracle Cloud Infrastructure (OCI). Seu OCI RDMA Supercluster fornece uma rede RDMA especialmente construída, computação em baremetal e armazenamento local de alta performance que pode ser dimensionada para superclusters de mais de 32.000 GPUs.

Microsoft Azure deve começar a hospedar o DGX Cloud no próximo trimestre, e o serviço logo se expandirá para o Google Cloud e muito mais.

“A utilização de supercomputação da NVIDIA AI em nuvem simplifica todo o processo dentro das empresas. Com acesso ao navegador de internet, é possível utilizar softwares e infraestrutura para desenvolver aplicações de IA generativa e resolver outros desafios na indústria”, pontua Marcio Aguiar, diretor da divisão Enterprise da NVIDIA para América Latina.

Grandes empresas da indústria adotam o NVIDIA DGX Cloud para acelerar o sucesso 

Amgen, uma das empresas líderes mundiais em biotecnologia, Intelligent Solutions (CCC), líder em tecnologia de seguros CCC, e ServiceNow, fornecedora de plataformas de negócios digitais, estão entre as primeiras pioneiras em IA usando o DGX Cloud.

A Amgen está usando o DGX Cloud com NVIDIA BioNeMo™, software de LLM (Large Language Model) para acelerar a descoberta de medicamentos, incluindo o software NVIDIA AI Enterprise, que inclui NVIDIA RAPIDS™ com bibliotecas de aceleração de ciência de dados.

"Com NVIDIA DGX Cloud e NVIDIA BioNeMo, nossos pesquisadores são capazes de se concentrar em biologia mais profunda em vez de ter que lidar com a infraestrutura de IA e montar a engenharia ML", conta Peter Grandsard, diretor executivo de Pesquisa, Biologics Therapeutic Discovery, Center para Research Acceleration by Digital Innovation na Amgen. "As poderosas capacidades computacionais e multimodos da DGX Cloud nos permitiram alcançar um treinamento 3x mais rápido de LLMs de proteína com BioNeMo e uma análise pós-treinamento até 100x mais rápida com NVIDIA RAPIDS em relação a plataformas alternativas."

CCC, uma plataforma líder em nuvem para a economia de seguros de propriedade e de acidentes, está usando o DGX Cloud para acelerar e escalar o desenvolvimento e o treinamento de seus modelos de IA. Estes modelos potencializam as soluções inovadoras de resolução de sinistros automotivos da empresa, ajudando a acelerar a automação inteligente da indústria e a melhorar a experiência de sinistros para milhões de usuários empresariais e seus consumidores todos os dias.

ServiceNow está usando o DGX Cloud com supercomputadores NVIDIA DGX localmente (On-premisses) para supercomputação flexível e escalável de IA híbrida em nuvem que ajuda a impulsionar sua pesquisa de IA em grandes modelos de linguagem, geração de código e análise casual. A ServiceNow também co-dirige o projeto BigCode, uma iniciativa responsável de IA generativa em ciência aberta, que é treinada na estrutura Megatron-LM da NVIDIA. 

Abra o navegador de internet para a supercomputação e software NVIDIA AI 

As empresas gerenciam e monitoram as cargas de trabalho de treinamento do DGX Cloud usando o software da plataforma NVIDIA Base Command™, que fornece uma experiência de usuário perfeita em todo o DGX Cloud, bem como os supercomputadores NVIDIA DGX localmente (On-Premisses). Usando a Plataforma Base de Command, os clientes podem combinar suas cargas de trabalho com a quantidade e tipo de infraestrutura DGX necessários para cada trabalho.

O DGX Cloud inclui a NVIDIA AI Enterprise, a camada de software da plataforma NVIDIA AI, que fornece estruturas IA de ponta a ponta e modelos pré-treinados para acelerar os pipelines de ciência de dados e agilizar o desenvolvimento e a implantação da IA de produção. Novos modelos pré-treinados, estruturas otimizadas e bibliotecas aceleradas de software de ciência de dados, já estão disponíveis no NVIDIA AI Enterprise 3.1, lançado hoje, dão aos desenvolvedores um início adicional para seus projetos de IA.

Cada instância do DGX Cloud apresenta oito GPUs NVIDIA H100 ou A100 80GB Tensor Core para um total de 640GB de memória GPU por nó. Alta performance e baixa latência construída com NVIDIA Networking garante que as cargas de trabalho possam ser escaladas através de clusters de sistemas interconectados, permitindo que múltiplas instâncias atuem como uma GPU para atender aos requisitos de performance do treinamento avançado de IA. O armazenamento de alta performance é integrado ao DGX Cloud para fornecer uma solução completa para supercomputação de IA.

O DGX Cloud conta com o apoio de especialistas da NVIDIA em todo o pipeline de desenvolvimento da IA. Os clientes podem trabalhar diretamente com os engenheiros da NVIDIA para otimizar seus modelos e resolver rapidamente os desafios de desenvolvimento em uma ampla gama de casos de uso na indústria.

Disponibilidade

As organizações podem contatar seu parceiro do programa de canais NVIDIA NPN para obter detalhes sobre como adquirir o serviço DGC Cloud.

Assista Huang apresentar o NVIDIA DGX Cloud em sua palestra de abertura do GTC, e sintonize o painel do GTC com os pioneiros do NVIDIA DGX Cloud. 

Sobre a NVIDIA

Desde sua fundação em 1993, a NVIDIA (NASDAQ: NVDA) tem sido pioneira em computação acelerada. A invenção da GPU pela empresa em 1999 estimulou o crescimento do mercado de games para PC, redefiniu a computação gráfica, iniciou a era da IA moderna e tem ajudado na criação do metaverso. A NVIDIA agora é uma empresa de computação full-stack com soluções em escala de data center que estão revolucionando o setor. Mais informações em: https://blog.nvidia.com.br/.

Acesse também:

Site oficial da NVIDIA no Brasil: https://www.nvidia.com/pt-br/

Facebook: @NVIDIABrasil

Twitter: @NVIDIABrasil

YouTube: NVIDIA Latinoamérica

 

Algumas declarações neste comunicado à imprensa, incluindo, mas não se limitando a, declarações sobre o assunto: os benefícios, impacto, especificações e disponibilidade de nossos produtos, tecnologias e serviços, incluindo DGX Cloud, NVIDIA DGX, software NVIDIA AI, NVIDIA BioNeMo, NVIDIA AI Enterprise, NVIDIA RAPIDS, NVIDIA Base Command, e GPUs NVIDIA; o momento iPhone da IA; as startups correndo para construir produtos e modelos de negócios disruptivos, e os operadores estabelecidos que procuram responder; os principais provedores de serviços na nuvem que hospedam a infra-estrutura do DGX Cloud; e terceiros que utilizam o DGX Cloud, incluindo os benefícios e o impacto do mesmo, são declarações prospectivas que estão sujeitas a riscos e incertezas que podem fazer com que os resultados sejam materialmente diferentes das expectativas. Fatores importantes que poderiam causar resultados reais materialmente diferentes incluem: condições econômicas globais; nossa dependência de terceiros para fabricar, montar, embalar e testar nossos produtos; o impacto do desenvolvimento tecnológico e da concorrência; desenvolvimento de novos produtos e tecnologias ou melhorias em nossos produtos e tecnologias existentes; aceitação de mercado de nossos produtos ou dos produtos de nossos parceiros; defeitos de projeto, fabricação ou software; mudanças nas preferências ou demandas dos consumidores; mudanças nos padrões e interfaces da indústria; perda inesperada de desempenho de nossos produtos ou tecnologias quando integrados em sistemas; bem como outros fatores detalhados de tempos em tempos nos relatórios mais recentes da NVIDIA com a Securities and Exchange Commission, ou SEC, incluindo, mas não limitado a, seu relatório anual no Formulário 10-K e relatórios trimestrais no Formulário 10-Q. Cópias dos relatórios arquivados junto à SEC são publicadas no website da empresa e estão disponíveis na NVIDIA sem custos. Estas declarações prospectivas não são garantias de desempenho futuro e falam apenas a partir da data de hoje, e, exceto conforme exigido por lei, a NVIDIA renuncia a qualquer obrigação de atualizar estas declarações prospectivas para refletir eventos ou circunstâncias futuras.

© 2023 NVIDIA Corporation. Todos os direitos reservados. NVIDIA, o logotipo NVIDIA, BioNeMo, DGX, DGX Cloud, Comando Base NVIDIA e RAPIDS são marcas comerciais e/ou marcas registradas da NVIDIA Corporation nos Estados Unidos e em outros países. Outros nomes de empresas e produtos podem ser marcas comerciais das respectivas empresas às quais estão associados. As características, preços, disponibilidade e especificações estão sujeitas a alterações sem aviso prévio.

Lu, do Magalu, é a capa da revista ELLE View de março

 Olá, amores!

Este mês, a Lu, do Magalu, maior influenciadora virtual do mundo, irá estampar a capa digital de uma das principais revistas do mundo, a ELLE. Na publicação, Lu concedeu uma entrevista em que fala sobre as causas que apoia e uma de suas paixões, a moda. “As pessoas sempre prestaram atenção e demonstraram interesse no que a Lu vestia e usava. Depois da entrada do Magalu na categoria de moda, a influenciadora passou a evidenciar suas roupas e o engajamento com seus looks aumentou”, diz Aline Izo, gerente de conteúdo e redes sociais do Magalu. “Estar na capa da revista digital da ELLE é mais um capítulo da história da personagem que foi conquistado”.

Ao longo da reportagem, o ícone digital fala sobre sua relação com a moda e de sua atuação como modelo da marca própria de roupas da empresa, a Vista Magalu, lançada em outubro de 2021. 

A influenciadora também comenta sobre seu papel como porta-voz das causas da companhia, como o combate à violência contra a mulher, e a forma como se posiciona diante dos assédios que sofre, mesmo sendo virtual. 

Lu, do Magalu, é considerada a maior influenciadora virtual do mundo, de acordo com a HypeAuditor, ferramenta de monitoramento de marketing digital. Ela está presente no Instagram, Twitter, TikTok, YouTube, Facebook e Kwai e acumula 32 milhões de seguidores. 

Sobre o Magalu

O Magalu é o maior ecossistema para comprar e vender no Brasil, uma plataforma digital, com pontos físicos e calor humano. Desde maio de 2011, a companhia é listada no Novo Mercado da B3. Nos últimos anos, fez diversas aquisições, consolidando sua presença nacional. Além de mais de 1.300 lojas em 21 estados do país, o Magalu conta com mais cinco marcas online: Netshoes, Zattini, Shoestock, Época Cosméticos e Estante Virtual - além de milhares de sellers em seu marketplace, a plataforma de delivery AiQFome e um SuperApp com quase 38 milhões de usuários ativos. Atualmente, o Magalu emprega mais de 45 mil funcionários. Sua política de gestão de pessoas foi reconhecida com diversos prêmios.

20 de março de 2023

DX Gameworks estará na GDC 2023 em busca de novos projetos para publicação

 Olá, amores!

Akane, da DX GameworksDivulgação

DX Gameworksmaior publicadora de jogos de videogames do Brasil com foco em títulos para PC e console, anuncia sua participação na GDC 2023 (Game Developers Conference). O principal objetivo da empresa brasileira é encontrar novos projetos, parceiros comerciais, investidores e jogos para publicação.

Focada no desenvolvimento de jogos AA e publicação de jogos parceiros, a DX Gameworks ajuda desenvolvedores independentes a criar, desenvolver e lançar jogos de classe mundial, fornecendo estrutura, serviços de desenvolvimento, consultoria de design e muito mais. Já reúnem em seu ecossistema 14 estúdios e mais de 150 funcionários, rodando mais de 24 projetos simultaneamente.

Nossa equipe de profissionais experientes está pronta para trabalhar com novos desenvolvedores em todas as etapas do processo de publicação, desde a concepção do projeto até a distribuição final. A GDC é uma grande oportunidade de conhecer e conversar com novos projetos”, afirma Daniel Monastero, CCO da DX Gameworks.

A GDC é voltada para o público envolvido no desenvolvimento de jogos, por isso, a DX Gameworks fará reuniões de negócios e networking com marcas como Xbox, Sony e Nintendo, entre outros parceiros e distribuidoras de nível mundial.

Durante o evento, o COO da DX Gameworks, Lucas Farina, ministrará a palestra “Independent Games Summit: Porting on a Budget: there and back again”, na segunda-feira, 20/3, às 14h10 (horário local). 

DX Gameworks na GDC 2023

Data: 20 a 24 de março

Local: Moscone Center, São Francisco - EUA

Palestra: “Independent Games Summit: Porting on a Budget: there and back again”

Data: 20/3, às 14h10 (horário local)

Localização: Room 2009, West Hall

 

Sobre a DX Gameworks

A DX Gameworks é a primeira editora de videogames do Brasil com foco em títulos para PC e console. Nasce em 2020 a partir do modelo de negócios dos fundadores da Garage 227 Studios, uma produtora de jogos independentes, e apoiados pela Microsoft, captaram uma rodada Seed através da Bertha Capital e Multilaser, de R$ 10 milhões. A DX Gameworks ajuda desenvolvedores independentes a criar, desenvolver e lançar jogos de classe mundial, fornecendo estrutura, serviços de desenvolvimento, consultoria de design e muito mais. Como um benefício adicional para os desenvolvedores, a DX Gameworks não recupera os custos para garantir que todos lucrem com o sucesso de um jogo e já reúnem em seu ecossistema 14 estúdios e mais de 150 funcionários, rodando mais de 24 projetos simultaneamente. Saiba mais em https://dxgameworks.com/

Mondelēz apresenta campanha omnichannel para ativar Páscoa Lacta

 Olá, amores!

O chocolate é um grande aliado para que momentos especiais entre família e amigos possam ser ainda mais gostosos e prolongados. Esse é o mote da campanha de Páscoa Lacta, marca da Mondelēz Brasil, que acontece até o dia 09 de abril em todo o país.

Com foco em consideração e conversão, a Mondelēz aposta em ativações omnichannel que incentivam o aumento de vendas digitais e a presença da marca Lacta durante toda a data. O objetivo da companhia é estreitar seu relacionamento com varejistas online e ampliar a operação em marketplaces, parceiros regionais e aplicativos de delivery, garantindo a melhor experiência de compra para os consumidores.


"Nossa estratégia aqui na Mondelēz Brasil é estar presente em todos as ocasiões de compra do consumidor, dando a oportunidade para que ele encontre nossos produtos tanto no ambiente online como no offline. Por isso, investimos em uma execução integrada e ações exclusivas dentro dos nossos principais parceiros e, é claro, na nossa loja própria, a Loja Lacta.", afirma Lívia Seabra, diretora de E-Commerce da Mondelēz Brasil. 

A estratégia de atuação em ecommerce é assinada pela GS. A agência é responsável por ativações online que levam o shopper a transitar entre o on e off de forma mais conectada, a fim de gerar o mesmo impacto que as tradicionais parreiras de ovos de Páscoa proporcionam ao shopper no varejo tradicional:

Mercado Live – contará com estratégia de retail media com inserção de CRM, Bundles e Mídia para levar os consumidores à loja virtual de Lacta. O objetivo é impactar o shopper durante sua jornada de compra online, desde a descoberta do portfólio de ovos de Páscoa até a conversão. A marca também terá o apoio de influenciadores para aumentar a visibilidade da linha regular de produtos, além de oferecer embalagens que incluem gelinho e almofadinha para que os chocolates sejam entregues sem quebrar ou derreter.

Super Muffato – no e-commerce do varejista, o consumidor vive uma experiência com tecnologia de metaverso. No ambiente digital simulado através de realidade aumentada, o shopper navega virtualmente dentro da loja 3D. Durante a jornada de compra, ele vivencia uma experiência 360° que proporciona uma descoberta diferenciada dos ovos de chocolates, tendo à sua disposição, sem precisar sair de casa, todo o portfólio de produtos presenteáveis da Lacta.  

Aplicativos de delivery - A estratégia fortalece a presença e exposição da marca também nos aplicativos iFood, Rappi e Cornershop, com lojas de produtos Lacta, sacolas exclusivas de entrega e comunicação em toda jornada dentro dos apps com buscador e CRM, além de grande foco em push notification.

Lacta aposta em muita indulgência, presente em toda comunicação de Páscoa, além de uma estratégia comercial de descontos para os consumidores. Atualizamos todos os assets nos varejos online para facilitar a descoberta do portfólio de produtos destinado à data, garantindo uma ‘loja perfeita’ e consolidando ainda mais a presença da marca no mercado de chocolates. Afinal, se é Páscoa, é Lacta!”, conta Elder Oliveira, CCO da GS.

 

Ficha Técnica

Agência: Global Shopper

Cliente: Mondelēz Brasil.

Marca: Lacta

Título: Lacta. Cada pedacinho aproxima

CEO: Mauricio Gallian

COO: Martina Azevedo

CCO: Elder Oliveira

Atendimento: Jennyfer Maynart e Luan Cunha.

Criação: João Garcia, Thiago Daudt, Ana Paula Porto, Luan Lopes, Mayara Daddio e Sergio Mori

Estratégia e Insights: Talita Quinto, Patrícia Neves, Cauã Magalhães e Janaina Josko.

Operação e-commerce: Bruna Roberta, Taly Zugman, Deborah Vavassori, Renato Petricelli, Olivia Manhani, Tiffany Ferreira e Vitor David.

Produção: Ana Carolina Pereira e Suelen Silva

Aprovação cliente: Lívia Seabra

 

Sobre a GS - O mundo está em um novo momento. E a vida do shopper também. Por isso, a GS nasceu para equilibrar esta nova relação entre as pessoas e as marcas. Através de três pilares fundamentais: Commerce, Inovação e Transformação Digital, a agência constrói para seus clientes um ecossistema de serviços conectados, potencializando a equação de valor das marcas para um crescimento inteligente e diferente. Em outras palavras: todas as equipes trabalham em sinergia para alavancar a interação omnichannel, criar uma presença constante e eficiente no varejo e também a possibilidade de proporcionar a melhor experiência de consumo para o shopper, onde quer que ele esteja, sem fricções entre on e off. É o Growth Intelligence, o Business Data e a Inovação Criativa, juntos, trazendo os melhores resultados na ponta do lápis. Por isso, a agência adotou o posicionamento "Growth. Different." que traduz a maneira da agência de pensar, agir e caminhar.  Inspirada na cultura das startups, a GS é comandada pelo CEO Maurício Gallian e conta com uma equipe multidisciplinar completa para atender clientes como C&A, Jonhson&Johnson e Mondelez. Para mais informações, acesse www.globalshopper.com.br e siga a agência também nas redes sociais.

Qual música embala sua paixão?

 Olá, amores!

É provável que você já tenha ouvido a música Pé na Areia, de Cauique, Rodrigo Leite e Diego Leite. Na voz do cantor Diogo Nogueira, a canção embala rodas de conversa, dança, e é perfeita para um típico dia de verão. E se o clima esquentar?  Pois é essa história que abre a série de contos eróticos da escritora Eliane Bodart em Bem Perto.

Assim como em Azul da cor do mar, um clássico da música popular brasileira precede e inspira cada narrativa. Dividido por faixas musicais e com uma descrição elegante até mesmo nos momentos mais ‘quentes’, a autora faz referência artistas como Chico Sá, Caetano Veloso, Alcione, Ivete Sangalo, Cássia Eller, Maria Bethânia e Elis Regina.

Seu corpo sentia ondas de arrepio e prazer.
Antes não foi assim, e depois dele também não.
Nem se lembra porque se separaram,
mas ele lhe deixou uma fita cassete com a música “Detalhes”
de Roberto Carlos.
A música foi sua maldição.
(Bem perto, p. 63)

Na obra, um QR direciona para uma playlist no Spotify com as músicas que inspiraram os contos. Nesta experiência sensorial, Eliane deixa duas sugestões: ouvir a música imediatamente após ler o texto ao qual faz referência, ou deixar tocar todas as canções, de preferência com uma taça de vinho nas mãos e à meia luz.

FICHA TÉCNICA
Título:  Bem Perto
Subtítulo: Contos eróticos inspirado em canções
Autora: Eliane Bodart
Páginas: 115
ISBN: 978-65-00-48902-6
Formato:  14cm X 21cm
Preço: R$ 76,02
Link de venda: Clube de autores

Sobre a autora: nascida e criada em São Paulo capital, Eliane Bodart é formada em Direito, pós-graduada em Direito Processual Civil pelas Faculdades Metropolitanas Unidas. Atuou como juíza de direito por 20 anos e depois de se aposentar, em 2019, iniciou a carreira de escritora com o livro “Um caso de bipolaridade”, obra em que aborda a importância do cuidado com a saúde mental. Agora, aos 56 anos e com outros cinco títulos publicados, a autora publica “Estilo Ageless”, para trazer as leitoras o poder do empoderamento da mulher com mais de 40 anos. Formada no curso de Master Love, atua como conselheira para relacionamentos amorosos e sexualidade, especialista em atendimento de casais. Em 2022 assumiu a cadeira nº 28 da Academia Feminina de Letras e Artes de Jundiaí.

Redes sociais: Instagram | Facebook | YouTube

Psicóloga especialista em luto auxilia quem enfrenta o fim do relacionamento

 Olá, amores!

Amigável ou não, o fim de um relacionamento pode deixar a sensação de vazio e causar um sofrimento que se assemelha ao luto, afinal, houve a perda de alguém especial. Vivenciar as etapas desse momento é fundamental para lidar com o que aconteceu e, finalmente, seguir em frente.

Isso, porém, nem sempre é fácil, já que as sensações de abandono, rejeição e perda são comuns. Para apresentar formas de enfrentar e superar a dor do término, a Matrix Editora lança o livro-caixinha Luto do Fim de Relacionamento. O título é assinado pela psicóloga especialista em luto Cristiane Assumpção.

Composta por 50 cartas com perguntas para refletir sobre feridas emocionais e reconstruir a vida amorosa, a obra ajuda a compreender o rompimento doloroso e oferece orientações a quem vive esta difícil situação.

Esses questionamentos podem ser utilizados no atendimento individual, em grupos de apoio e acolhimento e entre amigos e familiares. A proposta visa revisitar as memórias, vivenciar a tristeza e ressignificar a perda, oferecendo oportunidade para quem sofre de expor os sentimentos.

Perguntas como “Durante o período em que conviveram, vocês tinham discussões frequentes? Quais eram os principais motivos dessas discussões?”, “Você interrompeu algum projeto de vida por estar nesse relacionamento? O que pensa a respeito?” e “Você se sentia segura(o) na relação? Seu(sua) parceiro(a) era alguém com quem você podia compartilhar suas alegrias?” compõem este livro-caixinha.

Fundadora da Inluto Academy, onde capacita profissionais para atenderem pacientes em situações de luto, a psicóloga Cristiane Assumpção tem como casos mais frequentes em atendimento clínico situações que envolvem morte violenta e término de relacionamento. Ela é autora de outros dois livros-caixinha: Vida e Luto e Luto da Criança, importantes recursos terapêuticos para diferentes abordagens.

Ficha Técnica

Lançamento: Livro-caixinha Luto do fim de relacionamento
Autora: Cristiane Assumpção
Editora: Matrix Editora
Preço: R$ 43,00
Onde encontrar: Matrix EditoraAmazon

Sobre a autora

Cristiane Assumpção é psicóloga, especialista em luto, administradora, fundadora da Inluto Academy - onde se dedica à educação continuada para psicólogas, por meio da Formação em Intervenções Psicológicas Focadas no Luto -, e analista corporal em formação. Os casos mais frequentes no seu atendimento clínico são situações de luto por morte violenta e término de relacionamento. Pela Matrix Editora, lançou os livros-caixinha Vida e luto e Luto da criança.

Redes sociais da autora

Sobre a Matrix Editora

Apostar em novos talentos, formatos e leitores. Essa é a marca da Matrix Editora, desde a sua fundação em 1999. A Matrix é hoje uma das mais respeitadas editoras do país, com mais de 900 títulos publicados e oito novos lançamentos todos os meses. A editora se especializou em livros de não-ficção, como biografias e livros-reportagem, além de obras de negócios, motivacionais e livros infantis. Os títulos editados pela Matrix são distribuídos para livrarias de todo o Brasil e também são comercializados no site www.matrixeditora.com.br.