Nvidia adiciona inteligência artificial generativa em robôs humanoides

Anúncio foi feito durante conferência anual de desenvolvedores da empresa.

A Nvidia anunciou na segunda-feira (18) uma plataforma de hardware e software para construir robôs com características semelhantes às humanas, que inclui recursos de inteligência artificial generativa.

A nova plataforma consistirá em um sistema computacional que alimentará o robô e a IA, além de um pacote de software que inclui o genAI e outras ferramentas para construir robôs com características humanas, disse a empresa em sua conferência anual de desenvolvedores.

A adição do genAI permitirá que os robôs humanoides ajam com base em entradas com uma combinação de linguagem, vídeo, “demonstrações humanas” e experiências passadas. Chamado de Projeto GR00T, os componentes genAI se somarão à plataforma de hardware e software existente da empresa para robótica.

“Esses robôs mais inteligentes, rápidos e melhores serão implantados nas indústrias pesadas do mundo”, disse Rev Lebaredian, Vice-Presidente de Omniverse e Tecnologia de Simulação, em uma entrevista coletiva com repórteres. “Estamos trabalhando com todo o ecossistema de robôs e simulação do mundo para acelerar o desenvolvimento e a adoção.”

poderoso computador por trás do software genAI é chamado de “Jetson Thor” e é baseado em um dos chips de IA da empresa e em outro hardware. O computador dará ao robô potência computacional suficiente para realizar tarefas complexas e interagir com pessoas e máquinas, disse a empresa.

O conjunto de ferramentas de software é chamado de plataforma “Isaac”, e os novos recursos genAI GR00T são projetados para operar em “qualquer formato de robô em qualquer ambiente”, disse ela. As ferramentas incluem a capacidade de treinar o software para tomar decisões melhores ao longo do tempo, um processo conhecido como aprendizado por reforço.

A Nvidia também disse que lançaria modelos de robótica pré-treinados e outro software que melhorará as funções do braço robótico e as capacidades de sensoriamento de múltiplas câmeras.

FONTE: