Riscos da inteligência artificial preocupam pais, mas podem ser amenizados

A atenção com as crianças tem assumido novos contornos em meio à popularização da IA (inteligência artificial)

CURITIBA, PR (FOLHAPRESS) – Acompanhar os filhos em seu letramento digital é uma preocupação de longa data de Natália Ruschel, 39. A atenção tem assumido novos contornos em meio à popularização da IA (inteligência artificial).

“Como meus filhos ainda são novos, de 9 e 3 anos de idade, eu ainda não apresentei o ChatGPT para eles, porque não vejo necessidade. No entanto, estou me preparando para isso.”

Ruschel trabalha com propriedade intelectual no Mdic (Ministério do Desenvolvimento, Indústria, Comércio e Serviços), e frequentemente cruza com o tema da inteligência artificial. Ela tem ciência de suas possibilidades e riscos -muitos dos quais já familiares à presença online.

A pesquisadora Sonia Livingstone, vinculada à Unicef (Fundo das Nações Unidas para a Infância), classifica os riscos da presença online de crianças em quatro grandes áreas, que chama de 4Cs:

CONTEÚDO: engajamento ou exposição a conteúdo prejudicial ao seu desenvolvimento;

CONTATO: possibilidade de ser alvo de contato prejudicial de outras pessoas;

CONDUTA: quando testemunham, participam ou são vítimas de conduta prejudicial, como violências, racismo e LGBTfobia

E CONTRATO: termos de uso, políticas e privacidade sem transparência, e que podem levar à exposição das crianças e adolescentes.Alguns riscos da IA são mais discutidos, como no caso de recomendações de conteúdo inadequado ou violento nas mídias sociais; mas o debate ainda está no início para as inteligências artificiais generativas, que criam textos e imagens a partir de informações já existentes.

O ChatGPT, lançado em novembro de 2022, é um dos exemplos mais comentados. A ferramenta responde rapidamente a questionamentos de usuários, passando a impressão de confiabilidade -mas com erros e imprecisões frequentes, que contribuem para a desinformação.

Nos últimos meses, Ruschel tem testado a ferramenta, na expectativa do papel que terá no futuro de seus filhos. Ela pretende acompanhá-los em seu uso, com incentivo à análise crítica dos resultados, mas reconhece que não será uma tarefa fácil.

“O ChatGPT já faz a análise de texto, interpretação ou resumo das informações, não é resultado de uma simples busca. Será um grande desafio saber o que é falso, verdadeiro e tendencioso sem ter um conhecimento prévio sobre o assunto pesquisado.”

MODELO DE NEGÓCIO FAVORECE DESINFORMAÇÃO

Gabriela Mora, oficial de desenvolvimento e participação de adolescentes na Unicef (Fundo das Nações Unidas para a Infância), aponta que o modelo de negócios das plataformas se beneficia da atenção gerada por conteúdos extremistas e frequentemente falsos.

A falta de transparência das IAs também é um desafio, especialmente ao considerar os termos de uso e contratos associados. Mora afirma que, para além da família, empresas e gestão pública também têm a responsabilidade de considerar os direitos de crianças e adolescentes em sua atuação.

“Hoje é muito desigual. Os termos de uso e políticas de privacidade acabam requerendo a responsabilidade só do usuário.”

A atuação responsável das empresas deve começar ainda na programação das ferramentas, que carregam os vieses de seus programadores e dos dados que alimentam a inteligência artificial. Tais vieses, associados ao modelo de negócio das plataformas digitais, podem favorecer a reprodução de preconceitos e violências.

Neste ponto, é essencial que os adultos de referência sirvam como apoio. Os cuidados e limitações de uso devem ser associados a orientações, como explica Mora.

“Só se aprende usando a internet. Então também é importante, na medida da maturidade da criança e do adolescente, ir alertando estes riscos e apoiando para que eles possam ir construindo sua estratégia de resiliência, de enfrentamento de questões de violência e que possam também ir encontrando seu repertório de cuidado.”

INFORMAÇÃO SOBRE IA POSSIBILITA USOS BENÉFICOS

Guiar os filhos por este cenário não é fácil. Para Mora, o desafio começa logo no aspecto geracional: “Quem hoje é criança e adolescente não conheceu o mundo sem o smartphone, e isso traz uma familiaridade com a tecnologia muito diferente dos pais e responsáveis, principalmente se a gente pensar na desigualdade socioeconômica de quem teve acesso há pouco tempo.”

Porém, familiaridade não significa maturidade para lidar com a tecnologia. “Ela requer um senso crítico, uma capacidade de entendimento. Pensando na internet como uma grande praça pública, ninguém solta seus filhos por aí sem as devidas recomendações, sem o devido receio e cuidado, e tá todo mundo de olho”, compara a especialista.

Neste contexto, vale aprender novas habilidades e se manter informado sobre os riscos e funcionamento da inteligência artificial. Isto pode ajudar a entender a adequação de diferentes ferramentas a diferentes fases do desenvolvimento, possibilitando diminuir seus riscos e aproveitar seu potencial.

É o caso do programador Luciano Santa Brígida, 35. Usuário e pesquisador de inteligências artificiais, sua maior preocupação é com os conteúdos recomendados automaticamente para sua filha, de seis anos.

“Eu restrinjo o que minha filha pode consumir ou não de conteúdo através de ferramentas fornecidas pela própria plataforma, criando um perfil infantil com conteúdo filtrado de acordo com a idade dela. Também sempre reviso o histórico semanalmente para avaliar se o algoritmo pode ter recomendado algo inadequado que eu precise bloquear ou dialogar com ela a respeito”, conta.

As ferramentas generativas também fazem parte da rotina de Luciano e sua filha. “Uso os desenhos dela como base em geradores de imagem, ou ela me pede para criar personagens com que ela sonha em suas brincadeiras, e aproveito para dialogar com ela sobre arte, estilos, história e conteúdos correlatos”, diz Luciano.

No entanto, Luciano ainda não permite que as IAs generativas de texto, como o ChatGPT, sejam acessadas por sua filha. “Estou incentivando que ela escreva com suas próprias palavras primeiro”, conta.

DIÁLOGO É INSUBSTITUÍVEL NA EDUCAÇÃO DIGITAL

“Acho que nada substitui o diálogo sobre como a inteligência artificial está presente na vida da criança, na escola, nos jogos, que tipo de informação pessoal elas estão disponibilizando”, opina Mora.

A especialista diz que aplicativos de controle parental e de restrição do tempo de tela podem ser úteis, mas que o acompanhamento dos pais é indispensável -especialmente considerando o formato comercial das plataformas, desenhadas para nos manter conectados de forma contínua.

“A criança não tem a capacidade de se autorregular nesse sentido, então tem um trabalho ali que não dá para terceirizar. É um trabalho chato, porque as plataformas vão ter um apelo muito maior para que a criança fique conectada, e aí realmente tem de haver um limite, uma negociação”, pontua.

Ainda, pode ser um desafio equilibrar a orientação aos adolescentes com o respeito à sua autonomia e privacidade. “Tem idade que não tem que ter celular, não tem que ter tela, mas à medida que os adolescentes vão crescendo e amadurecendo e melhorando seu processo de aprendizagem inclusive em ambientes virtuais é papel desse adulto de referência na vida dialogar sobre o que acontece online e offline.”

Mora sugere fugir de proibições e lições de moral. “Uma lista de proibições é facilmente burlável por adolescentes. No lugar disso, construa com seus filhos uma noção de autocuidado, de cuidado com outras pessoas, alertando para as consequências e responsabilidades legais e emocionais, questões de violência e de rede de apoio.”

USO NA EDUCAÇÃO DEVE SER SUPERVISIONADO, E NÃO PROIBIDO

A pesquisadora Tainá Aguiar Junquilho, do ITS (Instituto de Tecnologia e Sociedade do Rio), diz que as inteligências artificiais têm inúmeras possibilidades de contribuir positivamente para a educação.

“Proibir não é o caminho. É aproveitar os potenciais da tecnologia, como validar um texto que escrevi, revisar, ajudar na tradução, ajudar nas correções gramaticais, produzir desenhos durante uma aula, tentar questões imersivas”
O projeto de lei nº 2338, de 2023, aborda a criação de uma classificação indicativa dos riscos das ferramentas de inteligência artificial. É um projeto, ou seja, não está em vigor; mas Junquilho chama atenção para a classificação de alto risco das IA usadas na educação.

“Considerando que crianças e adolescentes estão na fase educacional e de desenvolvimento, a IA que é aplicada para educação ou para crianças e adolescentes pode ser considerada no Brasil por esse projeto de lei como de alto risco, por isso merece mais cuidado”, explica.

Para ser benéfico, tal uso depende de limitações e supervisão por parte dos responsáveis. “As inteligências artificiais generativas, aquelas que geram texto e imagem, podem enganar muito facilmente e trazer um certo sentimento de preguiça no desenvolvimento educacional, então por que você vai ler um texto se você pode pedir para a IA resumir aquilo para você”, exemplifica a pesquisadora.

Esta é uma das preocupações de Ruschel sobre seus filhos: “O grande desafio no uso dessas ferramentas é convencer uma criança de que aquilo é apenas uma ferramenta e não pode fazer todo o trabalho por ela.”

Ela tem ciência de que o estímulo à aprendizagem para além das ferramentas é necessário até mesmo para que as crianças possam fazer seu melhor uso, e pensa em como transmitirá este aprendizado para que os filhos não fiquem reféns das tecnologias.

“Até para perceber que há alguma informação falsa ou que não faz sentido, para elaborar as perguntas certas em uma ferramenta de busca ou no ChatGPT, tudo isso demanda um conteúdo mínimo e uma capacidade de raciocínio que não vem de graça. Demanda estudo e esforço de cada um, é algo que a IA não pode fazer por você.”