Modelos de Linguagem Pequenos (SLMs): Uma Opção Sustentável e Econômica para o Ensino Superior
Os modelos de linguagem pequenos, conhecidos como SLMs, oferecem computação eficiente que exige menos recursos do que seus homólogos maiores.
Os SLMs criam possibilidades intrigantes para líderes do ensino superior que buscam aproveitar a inteligência artificial e o aprendizado de máquina. SLMs são versões miniaturizadas dos grandes modelos de linguagem (LLMs), que deram origem ao ChatGPT e outras variantes de IA generativa. Por exemplo, compare um smartwatch com uma estação de trabalho de desktop (monitor, teclado, CPU e mouse): o smartwatch tem uma fração da capacidade de computação do PC, mas você não usaria um PC no pulso para monitorar sua frequência cardíaca durante uma corrida.
SLMs podem reduzir custos e complexidade enquanto entregam benefícios identificáveis — um avanço bem-vindo para instituições lidando com as implicações da IA e do aprendizado de máquina. SLMs também permitem o uso criativo de dispositivos de borda de rede, como câmeras, telefones e sensores de Internet das Coisas (IoT).
Assim como um smartwatch aplica computação básica a demandas específicas, os SLMs aplicam automação de aprendizado em doses menores, onde ela pode fazer muito bem. Para explorar essas oportunidades, os líderes do ensino superior precisam aprender o básico: o que os SLMs fazem e como eles entregam valor no campus.
O Que São Modelos de Linguagem Pequenos?
Os SLMs são derivados dos LLMs, que ganharam enorme atenção desde a introdução do ChatGPT no final de 2022. Aproveitando o poder dos LLMs, o ChatGPT depende de microchips especialmente projetados chamados unidades de processamento gráfico (GPUs) para imitar a comunicação humana. Os modelos consomem enormes volumes de dados textuais, sonoros ou visuais e se treinam para aprender com centenas de bilhões ou até trilhões de variáveis, chamadas de parâmetros, de acordo com a IBM.
Por contraste, os SLMs utilizam substancialmente menos parâmetros — de alguns milhões a um bilhão. Eles não conseguem fazer tudo o que um LLM pode, mas seu tamanho reduzido se mostra vantajoso em cenários específicos.
“A maioria das universidades é como pequenas cidades”, diz Sidney Fernandes, CIO e vice-presidente de experiências digitais na Universidade do Sul da Flórida. As instituições supervisionam áreas operacionais que vão muito além de suas responsabilidades educacionais centrais: estacionamento, transporte, habitação, saúde, edifícios, segurança pública, esportes e mais. “Todas essas áreas operacionais oferecem lugares onde esses modelos podem ser especificamente direcionados a domínios”, acrescenta Fernandes.
SLMs vs. LLMs: Principais Diferenças e Vantagens
Modelos menores custam menos para operar, o que o mundo notou com a chegada do DeepSeek, um modelo de IA pequeno e aberto da China. A potencial redução nos custos de IA do DeepSeek provocou uma venda temporária nos mercados financeiros globais, pois investidores temiam que isso desafiasse o domínio da NVIDIA, líder mundial em chips GPU.
Custos mais baixos de IA serão bem-vindos no ensino superior, de acordo com Jenay Robert, pesquisadora sênior da EDUCAUSE e coautora do Estudo do Panorama de IA de 2025. Robert observou que apenas 2% dos entrevistados em uma pesquisa da EDUCAUSE disseram ter novas fontes de financiamento para custos relacionados à IA.
“As instituições provavelmente estão tentando financiar despesas relacionadas à IA desviando ou realocando orçamentos existentes, então os SLMs podem oferecer uma oportunidade para diminuir esses custos e minimizar os impactos orçamentários”, afirma ela.
Os SLMs também podem ajudar com os problemas de governança de dados que os LLMs criam. Faculdades e universidades se preocupam com proteção de dados, violações de privacidade, exigências de conformidade e potenciais infrações de direitos autorais ou propriedade intelectual com os LLMs, afirma Robert.
“As instituições têm mais probabilidade de conseguir rodar modelos de linguagem pequenos localmente, reduzindo os riscos relacionados à proteção de dados”, acrescenta Robert. As pesquisas da EDUCAUSE notaram que muitos líderes do ensino superior preferem implementações de IA locais em “jardins murados” que resolvem desafios de governança de dados.
Líderes que buscam reduzir a pegada de carbono das aplicações de IA na educação podem ver mais vantagens nos SLMs. “Como os modelos de linguagem pequenos são mais eficientes que os modelos grandes, eles podem ajudar a mitigar os impactos da IA generativa no meio ambiente”, diz ela.
Como os Modelos de Linguagem Pequenos Podem Transformar o Ensino Superior
Fernandes, da USF, sugere que os maiores benefícios dos SLMs podem ocorrer na borda da rede, em dispositivos como smartphones, câmeras, sensores e laptops. Os fabricantes já estão adicionando chips de IA aos dispositivos para ajudar na inferência (o processo que os computadores usam para inferir o significado dos pedidos dos usuários). Mais dispositivos adicionarão capacidade de inferência nos próximos anos, diz ele.
Dispositivos de borda também são mais seguros do ponto de vista da privacidade, pois os dados podem ser hospedados em locais remotos que são difíceis para intrusos acessarem. “Se você instalar localmente, pode ter dados mais sensíveis que são específicos de domínio”, diz Fernandes. Isso poderia ajudar, por exemplo, o departamento de polícia de um campus ou profissionais de saúde em uma clínica universitária.
Os SLMs específicos de domínio podem ser instalados no campus e direcionados a departamentos acadêmicos individuais, sendo treinados para tarefas pedagógicas específicas para ajudar os alunos a entender conceitos básicos. Nas operações, os SLMs podem ser treinados em sistemas para fornecer manutenção preditiva, ajudando os gerentes a substituir componentes ou máquinas envelhecidas, evitando quebras muito mais caras.
Embora ofereçam vários benefícios, os SLMs ainda exigem uma governança de dados sólida para garantir resultados de alta qualidade. Modelos menores devem ser cuidadosamente ajustados e monitorados para reduzir os riscos de alucinações e saídas tendenciosas ou ofensivas. “Entender os benefícios e as limitações desses modelos será muito, muito crítico”, diz Fernandes.
O Futuro da Compressão e Destilação de Modelos na IA
Os SLMs operam por meio de processos chamados compressão de modelo ou destilação de modelo, nos quais o modelo maior treina o modelo menor.
Como podem ser treinados em domínios específicos, os SLMs abrem mais oportunidades para agentes autônomos que operam em segundo plano, realizando tarefas cotidianas para as pessoas no campus. “À medida que você tem mais compressão de modelo, terá dispositivos IoT com SLMs integrados que podem atuar como agentes por si mesmos”, diz Fernandes. Eventualmente, esses agentes podem se tornar inteligentes o suficiente para que possam conversar entre si, economizando ainda mais trabalho humano.
Enquanto os modelos ficam menores, eles manterão uma capacidade computacional considerável. “Os SLMs do futuro provavelmente farão o que os LLMs de hoje estão fazendo”, afirma Fernandes. Esses modelos muito menores e mais eficientes podem ser instalados diretamente em dispositivos de borda.
“Eles virão com capacidades integradas, e então haverá fornecedores aproveitando isso”, acrescenta Fernandes. “O que significa que, como você gerencia seus dispositivos de borda será ainda mais crítico do que antes.”
Saiba mais em: https://edtechmagazine.com/higher/article/2025/03/small-language-models-slms-for-hied-perfcon