NAvegue pelos canais

Releases Geral

IA deve ser evitada por estudantes, diz população dos EUA

AGÊNCIA DE COMUNICAÇÃO Conteúdo de responsabilidade da empresa 12 de julho de 2024

DINO DIVULGADOR DE NOTÍCIAS

São Paulo, capital–(DINO – 12 jul, 2024) –
Com o avanço das inteligências artificiais (IA), a Statista, plataforma alemã de inteligência de dados, levantou, entre agosto e setembro de 2023, a percepção da população dos Estados Unidos sobre o uso de ferramentas baseadas em IA por estudantes em seus trabalhos. Quando questionados sobre a frequência com que eles deveriam utilizar esse tipo de tecnologia, os entrevistados deram a entender que a aplicação deve ser evitada. As respostas que apontam que o uso de IA  deve ser feito “nunca”, “raramente” ou só “às vezes”, somadas, representam 76% da amostra.

A pesquisa coletou informações junto a 1000 pessoas a partir de 18 anos, por meio de questionário on-line. Quando questionadas sobre qual seria a frequência de uso de IA entre estudantes, caso o recurso fosse proibido em trabalhos acadêmicos, essas pessoas acreditam que esse uso pouco diminuiria. A frequência seria reduzida em apenas 2%, em relação ao que percebem como o usual entre estudantes.

Debruçado sobre essas impressões norte-americanas, o brasileiro Fernando Giannini, autor do livro Chat GPT – Modos de pensar as relações com inteligências artificiais (2023, Streammer Educação e Tecnologia) e consultor em IA e Educação, entende que proibir ou evitar o uso de inteligência artificial por estudantes não é a questão. É necessário fazê-los entender com o que estão lidando. “Proibir não é o caminho. Orientar para o uso responsável, sim”, enfatiza o especialista.

Para Giannini, é preciso um aculturamento, entender como a máquina aprende e os contratos estabelecidos no uso de uma IA. Um educador esclarecido no assunto deve treinar para que a aplicação seja responsável e verdadeiramente proveitosa “No caso da IA generativa, é preciso que se explique, por exemplo, as implicações autorais e que o tratamento dos dados imputados na ferramenta não é claro”, entende.

“Portanto, é necessário cuidado com o que se compartilha em um chatbot generativo”,  menciona o consultor, sobre dados sensíveis, produções inéditas e outros tantos conteúdos que podem ter sua propriedade questionada no futuro.
Por outro lado, as informações fornecidas pela IA não são totalmente confiáveis. “A base de dados é limitada e a máquina aprendeu a ‘criar’ respostas, quando as informações não constam em sua base”, destaca.

Outra questão importante é que as inteligências artificiais são predominantemente norte-americanas ou europeias e os resultados de pesquisas ou solicitações feitas em um chatbot, por exemplo, podem ser cultural e historicamente enviesados para uma visão de mundo predominante na Europa ou nos EUA, criando uma hegemonia estética e intelectual.

“É preciso massa crítica para usar uma IA, caso contrário, estaremos reféns de (ou endossando) conteúdos equivocados, incompletos ou totalmente fora de nosso contexto culltural”, finaliza Giannini.

Website: https://www.linkedin.com/in/gianninifernando/
A OESP não é(são) responsável(is) por erros, incorreções, atrasos ou quaisquer decisões tomadas por seus clientes com base nos Conteúdos ora disponibilizados, bem como tais Conteúdos não representam a opinião da OESP e são de inteira responsabilidade da Dino Divulgador de Noticias Online Ltda

Encontrou algum erro? Entre em contato

Compartilhe