Cadastre-se

Cadastre-se gratuitamente para enviar suas redações para nossa comunidade!

Faça login para acessar a comunidade EscreverOnline

Esqueceu a senha? Vamos resolver isso :)

Perdeu a senha? Digite seu e-mail para receber um link para redefinir sua senha.

Desculpe, você não tem permissão para enviar uma redação, Você precisa acessar sua conta para enviar uma redação.

Comentário – Inteligência Artificial

Comentário – Inteligência Artificial

[box]

Coloque-se no lugar de um estudante de ensino médio que, após ler a reportagem Estupidez artificial: o problema que ninguém anteviu, publicada no jornal online El País, decide escrever um comentário na seção voltada para os leitores. No seu comentário, você deve apresentar:

  • o seu ponto de vista sobre inteligência artificial e o que a reportagem chama de Estupidez artificial;
  • Consequências da Inteligência Artificial na contemporaneidade.

[/box] [protected]

 

Texto-fonte:

Qualquer motorista que veja um sinal de “pare” onde um engraçadinho colou um adesivo dizendo “o ódio” sabe que continua sendo um sinal de “pare” e que é preciso parar. Já um carro autônomo será incapaz de reconhecê-lo em mais de 60% das vezes, e passará batido.

Os sistemas de visão artificial confundem uma tartaruga de brinquedo com um rifle, e pessoas negras com gorilas. Esses dispositivos foram treinados para enxergar padrões, e bastam mudanças sutis de simetria para desnorteá-los, como demonstra o estudo dos sinais de trânsito publicado em abril por especialistas de várias universidades dos EUA.

As pessoas também evoluíram ao longo de milênios para enxergar padrões. “Somos feitos para identificar rostos, e os vemos nas nuvens, nas manchas da parede, fazemos isso continuamente”, explica José Manuel Molina, do grupo de inteligência artificial aplicada da Universidade Carlos III de Madri. Um humano conhece o contexto dessa imagem, sabe que se parece com um rosto, mas que na verdade é uma nuvem. Por outro lado, a experiência de vida de um algoritmo de visão se limita à base de dados com milhares de imagens com as quais é repetidamente treinado. “Os algoritmos foram desenhados para resolver problemas muito concretos, mas não para compreender o que está acontecendo ao seu redor, só veem sinais e aplicam sempre a mesma solução sempre. As máquinas são totalmente autistas, e lhes dar uma compreensão de seu entorno é muito complicado”, resume Molina.

Essas falhas estão mudando a vida das pessoas. O sistema de inteligência artificial Compas usado para assessorar juízes nos EUA tem um viés e tende a desaconselhar a libertação dos negros mais frequentemente que a dos brancos. O algoritmo analisa 173 variáveis – nenhuma delas é a raça – e apresenta uma probabilidade de reincidência numa escala de 0 a 10. “A causa destes problemas é que as bases de dados com as quais estes algoritmos funcionam são da polícia, e nelas há importantes vieses racistas”, diz Ramón López de Mántaras, especialista em inteligência artificial do Conselho Superior de Pesquisas Científicas da Espanha (CSIC, na sigla em espanhol). Um estudo publicado neste ano sugere que o sistema tem uma margem de erro equiparável à de pessoas sem conhecimentos jurídicos. O problema não é tanto a máquina, e sim o risco de o juiz lhe delegue suas decisões.

Num nível muito menos grave, a aparente estupidez artificial espreita qualquer um que use a Internet, com anúncios onipresentes de coisas que já compraram ou que não lhe interessam. Uma vez mais, a culpa não é da máquina, e sim da falta de contexto. “Se procurarmos um produto na Internet, essa informação é pública e fica gravada, mas quando o compramos a transação é privada, o algoritmo não sabe que você fez a compra, é preciso ensiná-lo. Não é um erro, ele continua a lhe mostrar o que acha que vai lhe interessar, o continuará fazendo isso até que passe seu tempo de esquecimento”, explica Molina.

Neste caso, as bases de dados somos nós. Os assistentes domésticos de diálogo e os sistemas de análise de cookies na Internet são treinados e aprendem com nosso uso da rede. Às vezes, “o algoritmo detecta um padrão que não existe e começa a se comportar de uma forma concreta, por exemplo mostrando um anúncio no qual clicamos por engano uma ou duas vezes”, conta Carlos Castillo, especialista em inteligência artificial da Universidade Pompeu Fabra, de Barcelona. “Estes erros são como superstições que as máquinas adquirem. Temos que entender que os sistemas de computação podem se equivocar, o importante é saber por que e como corrigi-los. Na Europa entrou em vigor uma regulação neste aspecto que nos permite ver quais perfis automáticos foram criados a nosso respeito, alterá-los, apagá-los e saber que informação sobre nós está sendo compartilhada, embora pouca gente se dê ao trabalho de fazer isso”, explica. (…)

Em julho de 2017, muitos acharam que o inevitável tinha acontecido. O Facebook havia desligado dois robôs de bate-papo porque tinham desenvolvido uma linguagem secreta para se comunicar, sem que seus programadores soubessem. Uma de suas conversas era:

– Bob : Eu posso eu eu o resto…

– Alice: Bolas têm zero para mim para mim para mim para mim para mim para mim para.

O objetivo dos programadores era criar algoritmos capazes de negociar com humanos, e para isso foram treinados para distribuir três tipos de objetos entre si: chapéus, bolas e livros. O objetivo principal era chegar a negociações bem-sucedidas, então os robôs começaram a usar repetições de palavras sem levar em conta sua coerência. Chegavam a acordos válidos segundo os parâmetros fixados pelos programadores, mas a conversa era incompreensível para os humanos, como revelou a Wired. “Foi um erro de programação. Nenhuma máquina tem intenções nem nunca as terá. Podem se acostumar a jogar Go e derrotar um campeão, mas não sabem que estão jogando. Se puséssemos essa mesma máquina para distinguir fotos de cães e gatos, esqueceria tudo o que aprenderam anteriormente. Só podem fazer uma coisa de cada vez”, salienta Mántaras. “É verdade que há alguns anos ninguém podia antever que a inteligência artificial estaria tão na moda e se falaria tanto dos problemas potencialmente associados a ela, mas faz já 42 anos que [o informático do MIT] Joseph Weizenbaum escreveu que nunca deveríamos deixar que os computadores tomassem decisões importantes, porque nunca terão qualidades humanas como a compaixão e a sabedoria”. (Adaptado de https://brasil.elpais.com/brasil/2018/11/15/ciencia/1542314780_296201.html. Acesso em 19 nov. 2018)

 

[button link=”https://psalm.escreveronline.com.br/nova-redacao/” newwindow=”yes”] Clique aqui para enviar sua redação para correção comunitária (Grátis)[/button]
[button link=”https://psalm.escreveronline.com.br/premium/enviar-premium” color=”orange” newwindow=”yes”] Clique aqui para enviar sua redação para correção profissional (Premium)[/button] [/protected]

 

Conteúdo relacionado

Comente