A inteligência artificial pode ser uma tecnologia extremamente útil, com possibilidades quase infinitas. Mas os estudantes universitários — e os administradores — precisam estar atentos a armadilhas perigosas.
Houve muitas boas razões para a CDW começar a oferecer o programa Mastering Operational AI Transformation (MOAT) há alguns anos. O interesse em inteligência artificial explodiu desde que o ChatGPT trouxe os modelos de linguagem generativos para o centro das atenções no final de 2022, e líderes de setores como saúde, construção civil e até educação superior estão ávidos por aprender tudo sobre essa tecnologia desde então.
Para ser claro: o potencial da IA realmente permanece ilimitado. A IA já está melhorando funções administrativas, apoiando o engajamento de alunos e clientes, preenchendo lacunas de segurança e impactando o ensino e a aprendizagem. E a quantidade de dinheiro sendo investida em pesquisa e desenvolvimento em IA deve gerar avanços que hoje nem conseguimos prever. A velocidade de mudança da IA torna quase impossível acompanhar sem ajuda — e o potencial de uso indevido é uma grande preocupação.
Poderíamos ter começado a oferecer o MOAT apenas para abordar esses tópicos sobre IA — o que de fato acontece. O MOAT reconhece essa velocidade de transformação, a necessidade de políticas e planos claros sobre IA, a importância da comunicação entre departamentos, os desafios de integrar a IA às conversas sobre conformidade, a proteção de dados pessoais e pesquisas proprietárias vinculadas à IA, e maneiras de alinhar liberdade e privacidade para promover a aprendizagem e aliviar preocupações de segurança.
Mas o principal motivo pelo qual criamos e continuamos oferecendo o MOAT não tem relação direta com a tecnologia. Criamos o MOAT pelos jovens — pelas crianças e adolescentes que viverão com a IA, com todas as suas consequências potencialmente desastrosas, pelo resto da vida, caso não recebam agora o treinamento necessário.
A maior ameaça à segurança da IA são as próprias pessoas que a utilizam
A maioria dos estudantes universitários é tecnicamente adulta. Mas, como qualquer pessoa que convive com eles pode confirmar, nem sempre agem como tal. A universidade é conhecida tanto como um espaço de aprendizado acadêmico quanto como um lugar de festas constantes e erros cometidos. Aprender a reduzir as consequências desses erros é parte do que as instituições de ensino superior devem proporcionar a esses jovens.
No contexto da IA — especialmente da IA generativa —, os usuários estão cometendo erros o tempo todo. E é difícil culpá-los por isso. Trata-se de uma tecnologia nova, amplamente mal compreendida, mas altamente sedutora, que oferece a estudantes e adultos um poder criativo inédito.
Mas, assim como o advento da internet gerou novas e imprevistas violações de privacidade — especialmente nos primeiros anos —, a IA generativa está sendo subestimada de maneira semelhante.
Considere este cenário no mundo atual da IA: estudantes se divertem em uma festa e criam uma imagem “deepfake” de um amigo fazendo algo impróprio. Eles riem da imagem, talvez compartilhem entre si e, poucos dias depois, esquecem o ocorrido.
Mas o que o modelo de linguagem guardou? Onde essa imagem vive online? Quem tem acesso a ela? E, quando a tecnologia evoluir, o que acontece se alguém não conseguir mais distinguir entre o deepfake e uma pessoa real fazendo aquela ação imprópria? A imagem aparece em buscas no Google quando o aluno estiver procurando emprego? Ela o assombrará na vida adulta?
Talvez ainda mais preocupante seja a pesquisa e os relatos recentes sobre como a IA generativa está sendo utilizada. Um artigo perturbador da Harvard Business Review, publicado nesta primavera, revela que a principal forma de uso da IA generativa atualmente é para terapia e companhia emocional, seguida de organização da vida pessoal e busca de propósito. Apenas 12 meses antes, os principais usos eram geração de ideias (que caiu para o 6º lugar em 2025), terapia e companhia, e pesquisa específica (que caiu para o 13º lugar em 2025).
A pesquisa desenha um cenário sombrio de “relacionamentos” com IA se tornando cada vez mais íntimos, e reportagens do New York Times trazem exemplos de pessoas que se envolveram emocionalmente com um companheiro de IA de maneira excessiva e perigosa.
Some-se a isso o fato de que os estudantes universitários de hoje passaram por um trauma significativo durante a infância: o isolamento e a desconexão da pandemia de COVID-19, que atingiu o auge quando muitos deles estavam no ensino médio ou até antes.
O que é o MOAT e como ele pode ajudar as instituições de ensino superior?
O MOAT é um programa holístico e contínuo, oferecido pela CDW às instituições de ensino superior. Acreditamos firmemente que nossa experiência, nosso conhecimento e nosso papel como integradora de soluções podem gerar resultados concretos para qualquer objetivo que sua instituição tenha em relação à IA.
Por meio do MOAT, orientamos as universidades na compreensão do presente e do futuro da IA, trabalhamos em parceria com as lideranças do campus para identificar lacunas que a IA pode preencher, unificamos os diversos setores e desenvolvemos uma estratégia clara de integração.
Também promovemos conversas sobre segurança — e é aí que o bem-estar dos estudantes se torna prioridade. Não há aspecto mais importante na formação em segurança de TI do que educar as pessoas que vão usar a tecnologia. No contexto da IA generativa, isso significa praticamente todos no campus. E o futuro trará ainda mais dispositivos com IA integrados.
O letramento em IA e a formação ética são absolutamente essenciais nesse cenário. Compreender que tudo o que é inserido na IA pode permanecer para sempre é um bom ponto de partida. Educar os alunos sobre os riscos das “companhias virtuais” também é fundamental — seja oferecendo serviços de apoio psicológico adequados, seja promovendo formações obrigatórias sobre os perigos desse tipo de interação.
Não há dúvida de que a IA é poderosa, e com esse poder vem uma enorme responsabilidade. Faculdades e universidades carregam essa responsabilidade como guardiãs de seus alunos, promovendo seu crescimento e preparando-os para uma vida plena. Garantir que essas instituições liberem o poder da IA com as proteções necessárias para manter os estudantes no caminho certo é exatamente o propósito do MOAT.
Saiba mais em: https://edtechmagazine.com/higher/article/2025/07/do-universities-have-obligation-protect-students-ai