Risco de que novas técnicas desrespeitam a dignidade humana é imenso
24/09/2018 p. A13
Há duas premissas básicas para que as sociedades contemporâneas comecem a contornar o horizonte distópico tão frequentemente associado ao avanço da inteligência artificial, do aprendizado de máquinas e da internet das coisas. A primeira é que os indivíduos sejam reconhecidos como sujeitos de dados. A segunda é que os dados sejam considerados bens comuns e não sirvam, como ocorre hoje, para ampliar o poder e a riqueza de empresas cuja força monopolista não tem precedentes na história do capitalismo.
Proteger os dados pessoais e, ao mesmo tempo, estimular que sua circulação e seu compartilhamento melhorem a qualidade dos laços sociais, a confiança e a solidariedade são objetivos que devem ser almejados de maneira conjunta. Não podem ser tratados como um dilema ou o que os economistas chamam de trade-off.
Os dados são a matéria-prima da inteligência artificial contemporânea. A aprendizagem de máquinas não corresponde à imagem convencional de um algoritmo: ela é feita menos por programação que por acúmulo de informações, por treinamento a partir de dados. Mesmo não sendo a única técnica que leva à inteligência artificial, a aprendizagem por dados é a principal, a que se desenvolve mais rápido e aquela em torno da qual a competição internacional é a mais acirrada.
O exemplo mais emblemático é o reconhecimento facial. Só em 2017, a China depositou cinco vezes mais patentes nesta área que os Estados Unidos. Veículos autônomos, traduções, energias renováveis, transações bancárias e segurança urbana são apenas algumas das áreas em que novas tecnologias avançam graças à ciência dos dados.
É imenso porém o risco de que estas técnicas não respeitem a dignidade humana. O que está em jogo na ideia de que os indivíduos são sujeitos de seus dados não é sigilo ou o direito de ser deixado em paz e sim um conjunto de novos direitos humanos que emergem com a era digital. O direito à privacidade ganha uma dimensão inédita, diante do modelo de negócios dos gigantes digitais cujos dispositivos são desenhados para que extraiam de nós gigantesca massa de dados usados para nos persuadir de forma individualizada e sub reptícia a mudar nossos comportamentos tanto naquilo que consumimos, como em nossas opções cívicas e políticas.
É um poder com o qual a publicidade convencional jamais sonhou, pois se apoia no conhecimento minucioso não só dos hábitos, mas das inclinações, das intenções e do repertório de cada um de nós. É um jogo desigual, em que os indivíduos enfrentam, sem o saber, milhares de engenheiros e psicólogos voltados a persuadi-los daquilo que não corresponde necessariamente a sua vontade ou a seus interesses.
Neste contexto, ampliar o poder dos indivíduos, seu conhecimento e valorizar sua capacidade de escolha é fundamental. Mais que isso, da mesma forma que ocorre com alimentos, remédios ou com projetos que ameaçam serviços ecossistêmicos, é fundamental que a coleta, a armazenagem e o uso de informações sejam objeto de avaliação de impacto. E esta avaliação tem que ser coordenada por uma instância pública, uma autoridade capaz de acumular experiência e conhecimento a respeito dos riscos embutidos em tecnologias tão novas e cujo poder cresce de forma exponencial.
A lei de proteção de dados pessoais e da privacidade, votada por unanimidade na Câmara dos Deputados e no Senado é uma conquista da sociedade civil brasileira. Mas ela vai transformar-se num verdadeiro tiro pela culatra caso não seja aprovada uma autoridade nacional (prevista na lei aprovada no Congresso, mas vetada pelo presidente da República) que coordene as avaliações de impacto e oriente os agentes econômicos quanto às mudanças organizacionais que o respeito à privacidade vai exigir do setor privado e do próprio Estado.
Esta autoridade também terá por missão reunir a inteligência social que permitirá ao Brasil ser protagonista e não apenas consumidor das tecnologias digitais. Uma das mais inspiradoras fontes para isso é o relatório publicado recentemente pelo matemático (medalha Fields) e deputado francês Cédric Villani, intitulado “For a Meaningfull Artificial Intelligence” (disponível on line). O argumento central de seu trabalho é que a França forma talentos e produz a matéria-prima necessária à inteligência artificial (as informações de seus cidadãos), mas tanto seus cientistas e técnicos como seus dados beneficiam hoje majoritariamente um punhado de atores econômicos e não o desenvolvimento do país.
Enfrentar este problema não supõe que a França ou a Europa busquem construir um Google ou um Facebook. Ao contrário, a recomendação de Villani é que se formem incentivos que incitem os atores econômicos ao compartilhamento e ao mutualismo de seus dados, ou seja, que estes sejam tratados como bens comuns, cuja circulação permita que a inovação se difunda pelo conjunto do território e não fique na dependência das iniciativas dos gigantes digitais. Os dados são hoje uma infraestrutura que ocupa o epicentro do processo de desenvolvimento, o que reforça sua condição de bens comuns.
A inteligência artificial é e só pode ser um meio. Cabe à sociedade civil, aos representantes do Estado, às empresas e aos cientistas estabelecer suas finalidades. E é claro que as bases destas finalidades são de natureza ética. Daí a urgência de que as políticas voltadas a reduzir a distância que nos separa da fronteira global da inovação coloquem as pessoas como sujeitos de seus dados e façam destes um bem comum capaz de fortalecer nossa solidariedade social. Sem isso a inteligência artificial não faz sentido e se torna a porta de entrada da distopia.