O debate público sobre a inteligência artificial no ensino superior tem girado em grande parte em torno de uma preocupação familiar: a trapaça. Os alunos usarão chatbots para escrever redações? Os instrutores podem dizer? As universidades deveriam proibir a tecnologia? Abraçar isso?

Estas preocupações são compreensíveis. Mas focar tanto na trapaça ignora a transformação maior já em curso, que se estende muito além da má conduta dos alunos e até mesmo da sala de aula.

As universidades estão a adotar a IA em muitas áreas da vida institucional. Alguns usos são em grande parte invisíveis, como sistemas que ajudam a alocar recursos, sinalizar alunos “em risco”, otimizar a programação de cursos ou automatizar decisões administrativas de rotina. Outros usos são mais perceptíveis. Os alunos usam ferramentas de IA para resumir e estudar, os instrutores as usam para criar tarefas e programas de estudos e os pesquisadores as usam para escrever códigos, digitalizar literatura e compactar horas de trabalho tedioso em minutos.

As pessoas podem usar IA para trapacear ou pular tarefas de trabalho. Mas as muitas utilizações da IA ​​no ensino superior, e as mudanças que pressagiam, levantam uma questão muito mais profunda: à medida que as máquinas se tornam mais capazes de realizar o trabalho de investigação e aprendizagem, o que acontece ao ensino superior? Para que serve a universidade?

Nos últimos oito anos, temos estudado as implicações morais do envolvimento generalizado com a IA como parte de um projeto de pesquisa conjunto entre o Centro de Ética Aplicada da UMass Boston e o Instituto de Ética e Tecnologias Emergentes. Num documento técnico recente, argumentamos que à medida que os sistemas de IA se tornam mais autónomos, os riscos éticos da utilização da IA ​​no ensino superior aumentam, assim como as suas potenciais consequências.

À medida que estas tecnologias se tornam melhores na produção de trabalho de conhecimento – conceber aulas, escrever artigos, sugerir experiências e resumir textos difíceis – elas não apenas tornam as universidades mais produtivas. Correm o risco de esvaziar o ecossistema de aprendizagem e orientação sobre o qual estas instituições são construídas e do qual dependem.

IA não autônoma

Considere três tipos de sistemas de IA e seus respectivos impactos na vida universitária:

O software baseado em IA já está sendo usado em todo o ensino superior na revisão de admissões, compras, aconselhamento acadêmico e avaliação de riscos institucionais. Esses são considerados sistemas “não autônomos” porque automatizam tarefas, mas uma pessoa está “por dentro” e usa esses sistemas como ferramentas.

Estas tecnologias podem representar um risco para a privacidade e segurança dos dados dos alunos. Eles também podem ser tendenciosos. E muitas vezes carecem de transparência suficiente para determinar as fontes destes problemas. Quem tem acesso aos dados dos alunos? Como são geradas as “pontuações de risco”? Como podemos evitar que os sistemas reproduzam desigualdades ou tratem certos alunos como problemas a serem geridos?

Estas questões são sérias, mas não são conceitualmente novas, pelo menos no campo da ciência da computação. As universidades normalmente têm gabinetes de conformidade, conselhos de revisão institucional e mecanismos de governação concebidos para ajudar a abordar ou mitigar estes riscos, mesmo que por vezes fiquem aquém destes objetivos.

IA híbrida

Os sistemas híbridos abrangem uma gama de ferramentas, incluindo chatbots de tutoria assistidos por IA, ferramentas de feedback personalizadas e suporte de escrita automatizado. Muitas vezes dependem de tecnologias generativas de IA, especialmente de grandes modelos de linguagem. Embora os usuários humanos definam as metas gerais, as etapas intermediárias que o sistema executa para alcançá-las muitas vezes não são especificadas.

Os sistemas híbridos estão moldando cada vez mais o trabalho acadêmico diário. Os alunos os usam como companheiros de redação, tutores, parceiros de brainstorming e explicadores sob demanda. O corpo docente os utiliza para gerar rubricas, redigir palestras e elaborar programas de estudos. Os pesquisadores os usam para resumir artigos, comentar rascunhos, projetar experimentos e gerar código.

É aqui que pertence a conversa de “trapaça”. Com alunos e professores cada vez mais recorrendo à ajuda da tecnologia, é razoável imaginar que tipos de aprendizagem podem ser perdidos ao longo do caminho. Mas os sistemas híbridos também levantam questões éticas mais complexas.

Uma delas tem a ver com transparência. Os chatbots de IA oferecem interfaces de linguagem natural que tornam difícil saber quando você está interagindo com um ser humano e quando está interagindo com um agente automatizado. Isso pode ser alienante e perturbador para aqueles que interagem com eles. Um aluno que revisa o material para um teste deve ser capaz de saber se está conversando com seu assistente de ensino ou com um robô. Um aluno que lê o feedback de um trabalho de conclusão de curso precisa saber se ele foi escrito por seu instrutor. Qualquer coisa menos do que a total transparência em tais casos será alienante para todos os envolvidos e mudará o foco das interações acadêmicas da aprendizagem para os meios ou a tecnologia de aprendizagem. Pesquisadores da Universidade de Pittsburgh mostraram que essas dinâmicas geram sentimentos de incerteza, ansiedade e desconfiança nos alunos. Estes são resultados problemáticos.

Uma segunda questão ética diz respeito à responsabilização e ao crédito intelectual. Se um instrutor usa IA para redigir uma tarefa e um aluno usa IA para redigir uma resposta, quem está avaliando e o que exatamente está sendo avaliado? Se o feedback é parcialmente gerado por máquinas, quem é o responsável quando ele engana, desencoraja ou incorpora suposições ocultas? E quando a IA contribuir substancialmente para a síntese ou escrita da investigação, as universidades necessitarão de normas mais claras em torno da autoria e da responsabilidade – não apenas para os estudantes, mas também para o corpo docente.

Finalmente, há a questão crítica da descarga cognitiva. A IA pode reduzir o trabalho penoso, e isso não é inerentemente ruim. Mas também pode desviar os utilizadores das partes da aprendizagem que desenvolvem competências, tais como gerar ideias, lutar contra a confusão, rever um rascunho desajeitado e aprender a identificar os próprios erros.

Agentes autônomos

As mudanças mais importantes podem surgir com sistemas que se parecem menos com assistentes e mais com agentes. Embora as tecnologias verdadeiramente autónomas continuem a ser aspiracionais, o sonho de um investigador “dentro de uma caixa” – um sistema de IA agente que possa realizar estudos por si próprio – está a tornar-se cada vez mais realista.

Prevê-se que as ferramentas Agentic “liberem tempo” para trabalhos que se concentrem em capacidades mais humanas, como empatia e resolução de problemas. No ensino, isto pode significar que o corpo docente ainda pode ensinar no sentido principal, mas uma parte maior do trabalho diário de instrução pode ser transferida para sistemas otimizados para eficiência e escala. Da mesma forma, na investigação, a trajetória aponta para sistemas que possam automatizar cada vez mais o ciclo de investigação. Em alguns domínios, isso já se parece com laboratórios robóticos que funcionam continuamente, automatizam grandes porções de experimentação e até selecionam novos testes com base em resultados anteriores.

À primeira vista, isto pode parecer um aumento bem-vindo à produtividade. Mas as universidades não são fábricas de informação; eles são sistemas de prática. Eles contam com um fluxo de estudantes de pós-graduação e acadêmicos em início de carreira que aprendem a ensinar e pesquisar participando do mesmo trabalho. Se os agentes autónomos absorverem mais das responsabilidades “rotineiras” que historicamente serviram como rampas de acesso à vida académica, a universidade poderá continuar a produzir cursos e publicações, ao mesmo tempo que reduz silenciosamente as estruturas de oportunidades que sustentam a especialização ao longo do tempo.

A mesma dinâmica se aplica aos alunos de graduação, embora em cadastro diferente. Quando os sistemas de IA podem fornecer explicações, rascunhos, soluções e planos de estudo sob demanda, a tentação é descarregar as partes mais desafiadoras da aprendizagem. Para a indústria que está a empurrar a IA para as universidades, pode parecer que este tipo de trabalho é “ineficiente” e que será melhor que os estudantes deixem uma máquina cuidar dele. Mas é a própria natureza dessa luta que constrói uma compreensão duradoura. A psicologia cognitiva mostrou que os alunos crescem intelectualmente através do trabalho de redigir, revisar, falhar, tentar novamente, lidar com a confusão e revisar argumentos fracos. Este é o trabalho de aprender a aprender.

Tomados em conjunto, estes desenvolvimentos sugerem que o maior risco colocado pela automatização no ensino superior não é simplesmente a substituição de tarefas específicas por máquinas, mas a erosão do ecossistema mais amplo de práticas que há muito sustenta o ensino, a investigação e a aprendizagem.

Um ponto de inflexão desconfortável

Então, qual é o propósito das universidades num mundo em que o trabalho do conhecimento é cada vez mais automatizado?

Uma resposta possível trata a universidade principalmente como um motor de produção de credenciais e conhecimento. Aí, a questão central é o resultado: os alunos estão se formando? Artigos e descobertas estão sendo gerados? Se os sistemas autónomos puderem fornecer esses resultados de forma mais eficiente, então a instituição tem todos os motivos para adotá-los.

Mas outra resposta trata a universidade como algo mais do que uma máquina de produção, reconhecendo que o valor do ensino superior reside, em parte, no próprio ecossistema. Este modelo atribui valor intrínseco ao conjunto de oportunidades através das quais os novatos se tornam especialistas, às estruturas de orientação através das quais o julgamento e a responsabilidade são cultivados, e ao design educacional que incentiva a luta produtiva em vez de a optimizar. Aqui, o que importa não é apenas se o conhecimento e os diplomas são produzidos, mas como são produzidos e que tipos de pessoas, capacidades e comunidades são formadas no processo. Nesta versão, a universidade pretende servir nada menos que um ecossistema que forma de forma confiável a experiência e o julgamento humanos.

Num mundo onde o próprio trabalho do conhecimento é cada vez mais automatizado, pensamos que as universidades devem perguntar o que o ensino superior deve aos seus estudantes, aos seus académicos em início de carreira e à sociedade que serve. As respostas determinarão não apenas como a IA será adotada, mas também no que a universidade moderna se tornará.

Source link

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui