A Apple apresentou nesta semana novos modelos de linguagem de inteligência artificial chamada de OpenELM Open-source Efficient Language Models), descrito como uma família de modelos de linguagem composta por oito modelos de código aberto que prometem ser precisos e eficiente.
Segundo o MacRumors, a Apple já disponibilizou essa família de modelos no Hugging Face, uma biblioteca de LLMs (modelos de linguagem ampla). O principal diferencial desses modelos é que eles poderão ser executadas localmente em dispositivos, sem precisar acessar servidores em nuvem.
Além disso, conforme divulgou o Venture Beat, os modelos OpenELM contarão com diferentes tamanhos de parâmetros (dados utilizados no treinamento das IAs), indo de 270 milhões até 3 bilhões. Essa quantidade é pequena se comparada com o GPT-4, utilizado pelo ChatGPT, que é treinado com cerca de 1,76 trilhões de parâmetros, ou o Llama 3, que tem 15 trilhões.
No entanto, a quantidade de parâmetros utilizada por esses modelos da Apple permite que eles sejam executados em notebooks comuns e até mesmo em smartphones. De acordo com o artigo, OpenELM foi testado pelos pesquisadores em duas máquinas com as seguintes configurações:
-
Computador com uma CPU Intel i9-13900KF, equipada com 64 GB de DRAM DDR5-4000 e uma GPU NVIDIA RTX 4090 com 24 GB de VRAM, rodando Ubuntu 22.04
-
Apple MacBook Pro com sistema M2 Max no chip e 64 GiB de RAM, executando macOS 14.4.1
A revelação dessa família de modelos de IA chega após Mark Gurman, um dos principais informantes de temas da Apple, revelar que o iOS 18 terá uma IA que rodará localmente no dispositivo, sem depender de servidores em nuvem. Saiba mais na matéria completa do TechShake.
FIQUE POR DENTRO!