fbpx Skip to main content

Aquele mundo que há alguns anos parecia existir apenas nos filmes de ficção científica e nos pensamentos dos cientistas tidos como malucos, está batendo à nossa porta. Você está preparado para ter como colega de trabalho um robô? E o que acha de comer alimentos produzidos em impressoras 3D, carnes feitas em laboratórios e vendidas em cápsulas?

Em um futuro breve, carros circularão pelas vias sem condutor e as máquinas comandarão as decisões a serem tomadas no trânsito. Enquanto isso, você estará no banco ao lado, distraído tomando um café e atualizando as suas mensagens pelo smartphone.

Tudo, aparentemente, muito inofensivo. Mas, não caia nessa conversa. Recentemente, viralizou nas redes sociais um vídeo publicado no YouTube que mostra um empresário fazendo uma demonstração de um drone carregado de explosivos. Ele joga o drone na plateia, e o sistema de reconhecimento facial do dispositivo faz com que ele sobrevoe a cabeça das pessoas, retorne ao placo e atinja em cheio o seu alvo, um boneco de borracha.

Legal, né? Mas, será mesmo? Nesta mesma apresentação, logo a imagem sai do palco e corta para o espaço, onde milhares destes drones de guerra estão saindo de um porta aviões em busca dos seus alvos pelas cidades. Se esse vídeo era de fato a divulgação comercial deste produto ou um conteúdo criado por um grupo de pessoas interessadas em demonstrar a necessidade de se criar uma legislação para regulamentar o uso de tecnologias letais em dispositivos autônomos, não se tem 100% de certeza. Mas, o que interessa mesmo saber é que a tecnologia para criar isso já existe. A terceira revolução bélica está aí, com seus drones, exército de robôs soldados e muito mais que a tecnologia puder criar.

O mundo do futuro costuma nos fascinar. Mas, um olhar um pouco mais cuidadoso para isso logo nos colocará muitos, mas muitos questionamentos. Será que precisamos mesmo criar uma bomba do tamanho de uma bola de golfe e colocar na mão de qualquer pessoa que puder comprar por isso? Clonamos a ovelha Dolly e já existem experimentos para clonar humanos. Qual o limite disso tudo? Quem vai definir que algo pode ser desenvolvido, mas não implantando? Quem controla quem define que vai criar uma tecnologia que pode ser usada para causar uma destruição em massa ou clonar pessoas?

O que vamos fazer quando o mundo em que vivemos for dominado por robôs, que tomarão decisões mais rápidas e precisas que nós? Como imputar responsabilidade caso uma solução de Inteligência Artificial (IA) venha a se comportar de forma equivocada e insegura?

Se um bot de um banco vazar dados confidenciais do correntista, quem é o culpado? O desenvolvedor, o fabricante ou da instituição financeira? E se você estiver em uma via dentro do seu carro autônomo, um caminhão na sua frente derrubar centenas de barras de ferro que rolarão na estrada, para qual lado o carro deverá virar automaticamente? Do lado esquerdo, está um homem em uma moto; do outro, um carro com uma família. Qual vai ser a decisão do carro autônomo? E quem vai ser responsabilizado por ela? Quem fez o carro? O software? O dono do carro? Na Europa, já se estuda a criação de uma personalidade jurídica para os robôs. É, novos tempos…

Desmascarar os algoritmos é um caminho se quisermos ter uma mínima noção do que está por trás dos sistemas autônomos que estão tomando decisões sobre como vamos chegar a algum lugar, em que fundo vamos investir nosso dinheiro e até que presos devem continuar encarcerados e quais podem ter liberdade condicional.

Na área médica, soluções de Inteligência Artificial (IA) já classificam imagens e reconhecem tumores com precisão superior aos médicos. Mas, se não for possível explicar as respostas que os sistemas de aprendizado de máquina dão, a comunidade científica e médica pode não aceitar essas orientações. “A arquitetura dos algoritmos é tão complexa que você não consegue explicar o que está acontecendo. Mas isso terá que ser superado, até porque as indústrias que estão usando essas aplicações querem ter a segurança de entender o porquê do resultado tecnológico que está sendo produzido”, destaca o pesquisador em IA, Luis Lamb.

Entender os algoritmos também é um caminho para evitar o vieses de desigualdade que muitas vezes são gerados, levando a interpretações erradas. Mesmo que eu tenha o sistema de IA perfeito, se os dados que o alimentam têm preconceitos, isso será propagado.

O que dizer dos preditores de reincidência criminal no sistema prisional americano, que têm sido criticados por sugerir viés étnico (predizendo reincidência criminal de pessoas negras com maior probabilidade do que caucasianos) ou até mesmo o sistema de classificação de imagens do Google Photos, que relacionava pessoas negras como gorilas?

Outro perigo é o cruzamento desmedido dos dados. Como quando uma pessoa vai ao médico, faz exames e descobre que está com o colesterol alto. Algum tempo depois, esse indivíduo vai ao supermercado, compra chocolate e, ao final, dá o seu CPF. Se esses dados de compras forem integrados com os de saúde, analistas poderão usar essa hábito para dizer que ele não está cuidando da sua saúde e que, portanto, deve pagar mais pelo seu plano.

Os algoritmos de Inteligência Artificial terão que ser auditáveis, ou seja, teremos que conseguir explicar e dizer o porquê dos resultados, defende Edson Prestes, pesquisador do Instituto de Informática da Universidade Federal do Rio Grande do Sul (Ufgrs) e único brasileiro que faz parte de um painel permanente da ONU para debater questões como segurança e direitos humanos na era digital. “Tudo está associado à transparência. Quando você sabe o que o sistema produziu e o porquê, você consegue atribuir responsabilidade”, comenta.

Precisamos de respostas, de pessoas capazes de lidar com a tecnologia, de entender e operar máquinas, de saber identificar e frear os vieses que façam com que pensamentos e posturas inadequadas sejam replicadas para milhões, bilhões de pessoas com a força dos algoritmos e da internet.

Revisão e supervisão humana para termos mais segurança de que as decisões tomadas pelos robôs, seja um carro autônomo, um funcionário metalizado em uma fábrica ou um bot de um serviço de atendimento financeiro, não provocarão estragos. Ou pelo menos minimizar isso.

Precisamos nos apossar das tecnologias exponenciais como Inteligência Artificial (IA), Internet das Coisas (IoT), computação quântica para melhorarmos a eficiência das nossas empresas e torná-las mais competitivas, para melhorar a nossa vida, tornar as nossas cidades mais inteligentes. E não sermos dominados por elas.

Inovação responsável parece ser a resposta para isso. E aí que entra uma constatação urgente: o mundo do futuro não é sobre tecnologia, é sobre pessoas. Quanto mais nos deparamos com experimentos mirabolantes e inovações disruptivas, mais a segurança e a qualidade de vida dependerá dos indivíduos.

Os autores dos artigos, vídeos e podcasts assumem inteira responsabilidade pelo conteúdo de sua autoria. A opinião destes não necessariamente expressa a linha editorial e a visão do Instituto Dynamic Mindset.

Patricia Knebel

Com mais de 15 anos de experiência no mercado de Comunicação, Patricia Knebel é repórter e colunista de Tecnologia e Inovação do Jornal do Comércio (RS) desde 2000 e idealizadora e responsável pelo blog Mercado Digital. Ver perfil completo >>

2 Comentários

Deixar um comentário

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.