top of page

INTELIGÊNCIA ARTIFICIAL - A perigosa caixa preta dos algoritmos 

Em: https://brasil.elpais.com/brasil/2017/10/11/opinion/1507749770_561225.html

RENATO LEITE MONTEIRO

São Paulo 11 OUT 2017 - 21:07 BRT

A ProPublica, um instituto de jornalismo independente estadunidense que já ganhou diversos prêmios por seu trabalho investigativo, recentemente noticiou que softwares utilizados para ajudar magistrados dos Estados Unidos a calcular penas com base na probabilidade de os acusados cometerem novos crimes tinha um grave problema: se o indivíduo era negro, o algoritmo concluía que, em algumas situações, este tinha chances quase duas vezes maior do que um branco de cometer novos ilícitos. Com base neste cálculo, juízes condenaram negros a penas bem maiores do que indivíduos brancos com antecedentes e histórico de bom comportamento similares. Havia um outro grande problema: ninguém sabia que critérios eram utilizados para realizar o cálculo de risco. Devido a essa falta de transparência, em breve um caso será revisto pela Suprema Corte Americana porque o acusado afirmou que seu direito ao devido processo legal foi violado quando lhe foi negado o direito a entender o funcionamento do algoritmo.

Um outro estudo mais recente mostrou que algoritmos baseados inteligência artificial aprenderam, após analisar milhares de fotos, que se existe uma imagem com alguém numa cozinha, em frente a um fogão, deve ser uma mulher, reforçando estereótipos e causando discriminação. Em outro caso, um plano de saúde concluiu que determinado consumidor teria maiores chances de ter problemas cardiovasculares ao inferir que este seria obeso por possuir um carro grande e não ter filhos. E se os dados estiverem incorretos? E se fosse um homem na cozinha? E se o carro tivesse sido um presente? Como lidar quando os dados não são precisos?

Este são apenas exemplos, por mais assustadores que sejam, de como as nossas vidas hoje são controladas por algoritmos que muitas vezes reproduzem preconceitos, estereótipos e contribuem para aumentar a assimetria de poder entre cidadãos, o estado e empresas. Bancos, financeiras, agências de empregos, seguradoras, cidades inteligentes, carros que se autodirigem, todas são áreas da sociedade que dependem ferozmente de ADM (Automated Decision Making), algo como algoritmos que tomam decisões automaticamente.

Frank Pasquale, hoje um dos maiores especialistas no assunto, defende que vivemos numa Black Box Society, em alusão a opacidade intrínseca dos algoritmos que controlam diversos aspectos do nosso dia-a-dia e muitas vezes definem como, e se, exerceremos alguns dos nossos direitos mais básicos, mas que não permitem conhecer como se dá o seu efetivo funcionamento. Mas antes, é necessário entender o que são algoritmos.

Algoritmos são sequências de instruções programados para realizar uma ou várias tarefas. Normalmente, coletam dados de fontes diversas que funcionam como variáveis que combinadas levam a um resultado. Em um programa de computador, é um código, linhas de comando, escritas por programadores. Mais recentemente, algoritmos de aprendizagem automática passaram a escrever, sozinhos, outros algoritmos por meio de inteligência artificial, o que, por vezes, pode levar a resultados totalmente inesperados, que não poderiam ser antevistos pelos humanos que desenvolveram o código original. Esse código é, pela maioria das legislações do mundo, proprietário. Isso significa que ele pertence a uma empresa, pode ter um grande valor de mercado e ser considerado um segredo de negócio. O acesso a ele por terceiros pode significar uma grande desvantagem competitiva. E aqui reside um dos maiores embates que impede a efetiva transparência dos algoritmos.

Os que defendem, como Pasquale, que as empresas deveriam revelar o código de seus algoritmos a fim de permitir que a sociedade os entendessem e auditassem, visando evitar práticas discriminatórios, encontram barreiras na própria legislação nacional e internacional que conferem as companhias quase que um escudo, sob as bandeiras da propriedade intelectual e da livre concorrência, que impede conhecer os detalhes que levam os algoritmos a estas tomadas de decisão.

Na União Europeia, o Google vem sendo acusado de utilizar o seu algoritmo para favorecer seu próprio serviço, mostrando as ofertas do Google Shopping como as mais relevantes, o que, levando-se em consideração posição quase que dominante o buscador, vem sendo considerada uma prática monopolística. Sob o argumento do abuso de poder de dominância, a empresa foi multada em quase 2,5 bilhões de Euros. Algumas das principais discussões do processo envolviam a necessidade de transparência dos algoritmos para aferir se a companhia realmente favorecia seus serviços, o que, para infortúnio de pesquisadores, não aconteceu.

Outros, advogam a necessidade de uma transparência balanceada, que não impacte segredos comerciais, mas que permita não só aos consumidores, mas a sociedade como um todo, auditar algoritmos para verificar se estes não estão, de fábrica, imbuídos de práticas discriminatórias.

Desse contexto nasce a ideia de Accountability by Design, que, por meio de processos indiretos, tenta coadunar os interesses da sociedade em fiscalizar práticas baseadas em algoritmos sem que seja necessário ter acesso direito ao seu código fonte e revelar práticas comerciais. Testes padrões como os hoje realizados em veículos para identificar se estes estão em conformidade com o arranjo regulatório nacional e os padrões internacionais definidos podem ser desenvolvidos, similar ao que hoje já existe para calcular riscos aceitáveis de impacto ao meio ambiente quando da construção de obras. Mas, infelizmente, até mesmo essa solução tem se mostrado ineficiente.

Em mais um escândalo envolvendo algoritmos, a montadora Volkswagen alterou artificialmente o software de seus veículos para disfarçar a quantidade de poluentes emitidos durante testes para poderem ter acesso a determinados mercados. A complexidade do código embarcado era tal que este conseguia detectar quando estava sendo testado para que somente durante o procedimento o carro emitisse poluentes dentro dos limites permitidos pela legislação. Ou seja, para evitar acesso ao código foram utilizadas outras metodologias de verificação, mas que foram alvo de fraudes gravíssimas que levaram a empresa a multas astronômicas, enaltecendo a necessidade de se encontrar formas alternativas e eficientes para abrir as caixas pretas.

(...)

Renato Leite Monteiro é especialista em privacidade e proteção de dados. É professor de direito digital do Mackenzie e da FGV/SP.

Dez milhões de perfis no Facebook receberam propaganda paga pela Rússia durante as eleições dos EUA

ROSA JIMÉNEZ CANO

São Francisco 3 OUT 2017 - 11:14 BRT

Em: https://brasil.elpais.com/brasil/2017/10/03/internacional/1507002663_253312.html?rel=mas

Mais de 10 milhões de usuários do Facebook nos Estados Unidos viram anúncios cuja finalidade era estimular a divisão política. A publicidade foi paga a partir da Rússia. A rede social divulgou esses dados agora como forma de iluminar o que aconteceu na última eleição presidencial no país, em 2016.

Esta é a primeira vez que uma cifra desse porte é compartilhada. Na semana passada, o Facebook havia estimado a quantidade de anúncios que circularam (3.000), mas não o seu alcance. De acordo com os dados da empresa, 44% do material foi visto antes a votação que levou Donald Trump à presidência.

O serviço de Mark Zuckerberg admitiu nesta segunda-feira que a intenção dessas propagandas era gerar raiva e frustração, e que sua origem estava na Rússia, onde opera uma rede de fazendas de conteúdo falso. Embora Moscou negue envolvimento com essa campanha, o Facebook, através de uma mensagem do seu próprio fundador, alertou para a existência de uma trama organizada.

O Facebook, que antes negava tal situação, passou agora a se aproximar das autoridades e a fornecer dados que contribuam com a investigação. O próprio Zuckerberg pediu desculpas na semana passada e lançou um plano para evitar que situações desse tipo se repitam em outros processos eleitorais.

Uma das chaves do triunfo comercial do Facebook sobre seus concorrentes foi que, quase desde seus primórdios, o sistema de anúncios em pequena escala era administrado pelos próprios usuários. Isto permitia competir com os classificados online, chegando de forma quase instantânea a um público-alvo muito fácil de classificar. Só as grandes contas com campanhas vultosas incorporavam seus anúncios fora desse sistema.

Nesta segunda-feira, Zuckerberg anunciou a intenção de contratar mais 1.000 pessoas para revisarem os anúncios, em vez de delegar a tarefa a um sistema automático. Em maio, a empresa já havia revelado que estava contratando 3.000 profissionais para esse mesmo trabalho. Ela quer evitar demoras na veiculação, mas sem deixar a decisão final exclusivamente nas mãos de algoritmos. Assim, espera reforçar o controle, especialmente em caso de eleições. Mas, com cinco milhões de anunciantes, o controle humano é algo complexo.

Elliot Schrage, vice-presidente da rede social, explica por que 25% dos anúncios contratados acabam sendo exibidos a usuários sem filtrar: “É porque a oferta está concebida para que os anúncios sejam mostrados aos perfis com base na sua relevância. Alguns anúncios talvez não cheguem a ninguém tão específico, mas os mostramos do mesmo jeito”. O gasto total feito pela trama russa foi de 100.000 dólares (315.500 reais). Uma quantia muito pequena quando se leva em conta que 10 milhões de usuários foram atingidos. Ou seja, os anunciantes abriram muito o seu leque. Quanto mais específico se é, mais caro fica chegar ao usuário especificamente desejado.

Nesta segunda-feira, um executivo do Twitter prestou depoimento sobre esses mesmos fatos. O Google também está sendo investigada pela compra de anúncios da mesma origem.

bottom of page