Diversidade sim, mas que ocorra em todo lugar, incluindo o futuro”.

26/08/2020 - AUTOR: Tatina Mazzei

 

Muitos dirão que a tecnologia é genial e que veio para auxiliar em muitas coisas. Isso é inegável. No entanto, pouco se sobre os  aspectos negativos no emprego da inteligência artificial, cada vez mais predominante em inúmeras áreas. Ética, privacidade, entre outros. Assista a  live promovida pelo NomuseLocus em junho envolvendo a temática.

Como incluir a sociedade, sendo que muitos nem fazem ideia, sobre a coleta e utilização do uso dos seus dados por grandes corporações? Ou o quanto é ético copiar uma imagem com direitos autorais entre outras coisas?

Muitas bandeiras relevantes têm sido levantadas nos últimos anos. Em tempos de inteligência artificial, como isso funciona? O que tem sido feito? O que de fato tem sido pensado sobre isso para o futuro?

Infelizmente, casos de utilização de IA com resultados negativos ainda são pouco divulgados. Isso porque, também na inteligência artificial, entenda-se aqui tecnologia, há preconceitos em relação a raça e gênero por exemplo. Já se fala na “branquitude” dos robôs e a maneira como são reportados fisicamente, assim como também já há episódios de aplicativos de reconhecimento facial ou de recrutamento e seleção para posições profissionais apontando não o melhor candidato a vaga, mas sim em razão de sua cor de pele. Algo grave, não é?

Em um estudo realizado pela Universidade de Canterburry (Nova Zelândia) em parceria com outras universidades localizadas na China, Austrália e Alemanha, detectou-se que os preconceitos raciais nutridos pelos seres humanos estão sendo transmitidos também as máquinas (chatbots, assistentes virtuais, humanóides e robôs).

E como isso ocorre? É fruto de programação, design, desenvolvimento e principalmente a leitura, armazenamento e interpretação dos dados.

O universo de inteligência artificial ainda é território masculino, onde mulheres, negros e hispânicos por exemplo, têm uma parcela mínima de participação.

Para que se tenha um mundo mais inclusivo e diverso, é preciso também pensar na diversificação das equipes que atuam nestas áreas.

Felizmente já existem algumas iniciativas nesse sentido. Grupos nos Estados Unidos como “ Girls Who Code” e o “AI4ALL”, bem como o “UX para minas pretas” aqui no Brasil, buscam capacitar meninas, principalmente de baixa renda, para integrá-las no mundo da programação, afim de que seja mais igualitário esse acesso.

Segundo Danny Guillory, diretor de diversidade e inclusão global da Autodesk, em artigo escrito no Medium, afirma que a diversidade é algo muito maior do que compreender dimensões distintas, envolve a diversidade humana, cultural e a de sistemas, onde estão inseridas não só as características pessoais imutáveis, tais como raça, etnia e idade, como também religião, ética, linguagem, além é claro educação, empoderamento e gestão de desempenho, todos interagindo entre si.

Essas dimensões da diversidade devem ser avaliadas e pensadas, sempre que houver a necessidade de montar uma equipe para desenvolvimento de IA. Quando isso é ignorado, os resultados podem ser desastrosos, justamente pela falta de heterogeneidade da equipe.

O desafio atual é a composição de equipes onde os integrantes possam, além de representar as diferentes dimensões da diversidade, também contribuir com as perguntas e respostas necessárias dentro de sua realidade diária, para que a experiência que a inteligência artificial propõe, seja a mais próxima do real e não apenas um viés ou a visão homogênea de uma parte da população.  Quando isso não é feito, esbarra-se no fator ético, gerando riscos de esquecimentos e fatores não inclusivos ou não pensados e o rumo que isso toma, pode se agravar com o tempo, tratando-se de inteligência artificial.

Isso porque, trabalha-se com a chamada “machine learning”, ou seja, o aprendizado de máquina, resultante de orientações vindas de fontes, que nem sempre possuem uma visão holística e democrática das coisas, repassando portanto, apenas visões de mundo à máquina, que serão por si só incompletas e por vezes distorcidas ou com uma única interpretação.

É justamente por esta razão que todos os dados e informações incutidos em toda plataforma  relacionada à IA precisam de equipes compostas por profissionais de distintas áreas, classes sociais, diferentes visões e vivências a respeito de inúmeros assuntos.

Tal discussão a respeito da IA se faz tão necessária, que até o Vaticano, através do Papa Francisco, deseja instituir parâmetros que sejam éticos para o seu desenvolvimento. Tanto é que firmou parcerias com gigantes da tecnologia como é o caso da Microsoft e da IBM que juntas assinaram um documento denominado “Chamada de Roma para a Ética”, onde se comprometem para que as tecnologias utilizadas sejam sempre aprimoradas visando o bem da humanidade.

A inteligência artificial vem cada vez mais fazendo parte do cotidiano das pessoas e não pode haver assimetria no processo. Não é possível que alguns poucos saibam muito sobre tudo e todos, enquanto outros nada sabem. O resultado disso, além de ser completamente antidemocrático, não permite a criticidade, além de deixar o conhecimento, que é a nova moeda do século XXI, nas mãos de poucos, trazendo riscos a sociedade, seja pelos possíveis erros na sua utilização, seja por não ser trabalhada de forma igualitária.

O que precisamos compreender, é que a linguagem utilizada pela inteligência artificial, traça um padrão de entendimento da experiência humana, mas é também relevante entender que além de descrever cenários, ela também define um modo de funcionamento de mundo.

 

Por isso, faz-se mais do que urgente, discussões sobre padrões éticos e faculdades morais, colocando fim a preconceitos e privilégios de qualquer sorte.

É preciso estar atento, visto que, já é certo que a IA, em um futuro breve, irá desempenhar de forma mais talentosa, ações e tarefas antes executadas pelos seres humanos.

Quanto a isso, não há problemas. O ser humano é resiliente. Se transforma e acaba por criar novas formas de atuação e trabalho.

Onde a coisa complica?

É que muito em breve, estes sistemas irão imitar vozes de maneira tão realista, como já ocorre nos cados das já existentes “deep fakes”, que  chegará um momento em que ficará inviável discernir sobre o que é de fato real e o que de fato vem do uso da tecnologia.

O que é preciso fazer, antes de mais nada, é unir pesquisadores, cientistas em equipes multidisciplinares de maneira que, através da integração e diferentes ideias e vivências, seja possível chegar a uma visão mais justa, correta e real de mundo e a partir daí, juntar-se a sociedade para quem sabe juntos, adequar ainda mais tais algoritmos, ou seja, as regras e direcionamentos dados as máquinas.

 

Digo isso, pois embora acredite que por inúmeras vezes o erro humano é de grande risco, ainda creio que confiar de maneira excessiva em máquinas e em tecnologias automatizadas, podem ser uma fatalidade.

 

Em uma época em que vivemos a reprodução de imagens técnicas, onde tudo passa a ser por demais superficial, onde o reducionismo impera, acabamos aprisionados pela linguagem, porém não de maneira positiva. Isso porque, da maneira como tem sido utilizada na inteligência artificial, através de programação e algoritmos, acaba por tornar o ser humano cada vez mais alienado e isso é perigoso, levando-o distante da realidade.

.

A inteligência artificial é importante e útil sim, mas deve ser produzida de maneira ética, atendendo aos anseios da sociedade como um todo e principalmente, sendo inclusiva e propiciando a diversidade e não priorizando apenas seletos grupos.

Se tais cuidados no uso desta ferramenta tecnológica tão relevante de fato ocorrer, certamente teremos não o predomínio da técnica, mas sim o enaltecimento do pensamento crítico, deixando a robotização e a mecanização do pensamento, apenas para as máquinas.

E que assim seja!

Tatiana Mazzei é publicitária, Mestre em Ciências da Comunicação, professora universitária. Atua no mercado há mais de 20 anos e é uma das principais especialistas em mídias. Pesquisa e estuda disrupções e suas aplicações em mídia, comunicação e marketing.

A opinião emitida nos artigos publicados no portal e redes sociais do NomuseLocus e da T.Academia expressam a opinião dos seus autores e não necessariamente do projeto NomuseLocus e T.Academia. A orientação fornecida aos autores é que sigam a vertente da filosofia das virtudes e o posicionamento da reputação sustentada em atos e falas virtuosos, dentro das variáveis da #reputaçãovirtuosaintegradora.

Acesse nossa rede

 

Pesquisa Nº 1

QUESTAO:

“Você já enfrentou situações nas quais você não foi respeitado? Se positiva. O desrespeito é mais usual em que ambiente de seus relacionamentos cotidianos?”.


Resultado:

SIM – 100%


ONDE?

60% - Sociedade em geral

100% - Ambiente de Trabalho

80% - Nos espaços públicos

50% - Pelo Estado

30% - Nas instituições de ensino


Quer conhecer mais detalhes da pesquisa? Acesse e baixe a 1ª edição da NomuseLocusMagazine.