A Meta está supostamente trabalhando com a Arm para trazer recursos avançados de IA para smartphones

A conferência de desenvolvedores Meta Connect 2024 da empresa aconteceu na quarta-feira. Durante o evento, a gigante da mídia social apresentou vários novos recursos de inteligência artificial (IA) e dispositivos vestíveis. Além disso, a Meta também anunciou uma colaboração com a gigante da tecnologia Arm para criar modelos especiais de linguagem pequena (SLMs). Diz-se que esses modelos de IA são usados ​​para alimentar smartphones e outros dispositivos e introduzir novas maneiras de usar esses dispositivos. A ideia por trás desta solução é fornecer opções de processamento no dispositivo e na borda para garantir uma inferência rápida de IA.

De acordo comCNET relatórioMeta e Arm planejam construir modelos de IA que possam realizar tarefas mais avançadas em dispositivos. Por exemplo, a IA pode atuar como assistente virtual do dispositivo e fazer chamadas ou clicar em uma foto. Isso não é exagero, pois as ferramentas de IA já podem realizar inúmeras tarefas hoje, como edição de imagens e redação de e-mails.

Porém, a principal diferença é que os usuários devem interagir com a interface ou digitar comandos específicos para que a IA execute essas tarefas. Durante o evento Meta, a dupla enfatizou que quer resolver isso e tornar os modelos de IA mais intuitivos e responsivos.

Uma maneira de conseguir isso seria colocar modelos de IA no dispositivo ou colocar servidores muito próximos dos dispositivos. A última solução, também conhecida como edge computing, é utilizada por instituições de pesquisa e grandes empresas. Ragavan Srinivasan, vice-presidente de gerenciamento de produtos para IA generativa da Meta, disse à publicação que o desenvolvimento de novos modelos de IA é uma boa maneira de aproveitar esta oportunidade.

Para fazer isso, os modelos de IA precisarão ser menores. Embora a Meta tenha desenvolvido grandes modelos de linguagem (LLM) com tamanhos de até 90 bilhões de parâmetros, eles não são adequados para dispositivos menores ou processamento mais rápido. Os modelos Llama 3.2 1B e 3B são considerados ideais para esse fim.

Outra questão, porém, é que os modelos de IA também precisarão ser equipados com capacidades mais recentes, além da simples geração de texto e da visão computacional. É aqui que entra Arm. De acordo com o relatório, a Meta está trabalhando em estreita colaboração com a gigante da tecnologia para desenvolver modelos de IA otimizados para CPU que possam ser adaptados a fluxos de trabalho em dispositivos como smartphones, tablets e até mesmo laptops. Nenhum outro detalhe sobre SLM foi fornecido neste momento.

Fonte