171) A inteligência da Inteligência Artificial
Tempo estimado de leitura: 6 minutos.
Dois meses do verão de 1956 deveriam ser suficientes para “assegurar que todos os aspetos do conhecimento ou de qualquer outra característica da inteligência humana pudessem ser descritos e programados de tal forma que uma máquina os pudesse vir a simular”, John McCarthy.
Um sistema com comportamento inteligente é fundamentalmente diferente de ser inteligente, John Searle.
Os modelos matemáticos, pela sua natureza, têm por base o passado, e a assunção que os padrões se repetem, Cathy O’Neil.
Os padrões com que a IA trabalha, são reproduções de estereótipos que lhe fornecemos.
Acabou-se o “ver para crer”.
A ideia da fabricação de um ser mecânico idêntico ao humano, tem acompanhado desde sempre a chamada civilização ocidental. Não é, pois, coisa de hoje. Talvez a primeira referência explícita se possa encontrar na mitologia grega, com Talos, o gigante automático feito de bronze, colocado por Zeus na ilha de Creta para garantir a segurança da bela fenícia Europa, que ele, como macho alfa (nesse caso disfarçado de touro, o minotauro), raptara.
Este ideário tem permanecido latente, reavivado aqui e ali, de tempos a tempos: só nos últimos dois séculos, recordemos os casos mais conhecidos de Mary Shelley e o seu Frankenstein ou o Moderno Prometeu, (1818), de Carlo Collodi e as Aventuras de Pinóquio (1883), bem como o famoso filme de 1927, Metropolis, do alemão Fritz Lang. A partir dos últimos anos do século XX, têm-se sucedido obras, literárias e cinematográficas, que exploram esse aparente desejo permanente de se ter um empregado para todo o serviço, nem sempre obediente, mas quase sempre derrotado.
Com a fabricação da bomba atómica (prova do domínio humano sobre o átomo) e após a Segunda Guerra Mundial, assistiu-se ao grande desenvolvimento da ciência na área da computação, o que fez surgir um número de deslumbrados académicos, filósofos e cientistas, acreditando na possibilidade de poderem replicar a consciência humana num programa de computador.
Coube a John McCarthy (1927-2011), um jovem professor americano de 29 anos, do Dartmouth College, a ideia de convidar, para trabalharem com ele durante o período de verão de 1956, alguns dos cientistas mais avançados nos campos da robótica, das redes neurais e da programação de linguagens. O convite enviado, tinha como título Inteligência Artificial, termo usado pela primeira vez.
O plano apresentado previa que o trabalho de 10 cientistas, apenas durante os dois meses do verão, seria suficiente para “assegurar que todos os aspetos do conhecimento ou de qualquer outra característica da inteligência humana pudessem ser descritos e programados de tal forma que uma máquina os pudesse vir a simular”.
Após os dois meses de trabalho, McCarthy e a sua equipa, foram forçados a encarar a realidade: ensinar um computador a compreender a linguagem, usar a criatividade para resolver um problema, melhorar por si próprio, eram tarefas impossíveis de concretizar naquele espaço de tempo. McCarthy tinha subestimado a complexidade das funções do cérebro. A experiência de Dartmouth falhara na sua intenção de produzir uma máquina inteligente.
Isto levou a que muitos dos colegas de McCarthy começassem a duvidar de que alguma vez fosse possível produzir uma máquina que pensasse como uma pessoa. Para eles, o futuro estava antes na produção de sofisticadas ferramentas eletrónicas capazes de desempenharem autonomamente certas tarefas específicas.
Estávamos, portanto, perante duas conceções diferentes relativamente à Inteligência Artificial (IA), o que veio a conduzir ao aparecimento de dois termos: “IA Geral” (Artificial General Intelligence), que procurava desenvolver uma máquina que conseguisse desempenhar toda e qualquer tarefa intelectual, e “IA Restrita” (Narrow AI), que se propunha apenas investigar sistemas que ajudassem na resolução de problemas práticos sem perguntar se eram inteligentes ou se se comportavam como se o fossem.
Dado que ao longo destes mais de 50 anos a IA Geral não ter conseguido apresentar qualquer progresso, foi sendo abandonada por quase todos os investigadores. Todos os métodos de IA que hoje usamos são de “IA Restrita”, o que acabou por relegar a “IA Geral” para o domínio da ficção científica.
Parece ser hoje reconhecido que um sistema com comportamento inteligente é fundamentalmente diferente de ser inteligente, o que já desde 1980 vinha demonstrando Jonh Searle (1932-) (https://plato.stanford.edu/entries/chinese-room/).
Além do mais, os resultados obtidos com base na IA Restrita têm sido espetaculares. Graças ao aumento da capacidade dos computadores possibilitando o armazenamento de “Big Data”, ao desenvolvimento da teoria dos jogos, à aplicação das “regras de Bayes” para lidar com a incerteza e probabilidade, à “aprendizagem de máquina” (machine learning) que permitiu através de estatísticas extrair conhecimento a partir das grandes quantidades de dados, e das suas técnicas de “aprendizagem profunda” (deep learning) que possibilitaram, através da imitação das redes neurais, o conhecimento de estruturas mais complexas sem a necessidade de utilização irrealista de grandes quantidades de data, têm sido possíveis os desenvolvimentos de algumas importantes e visíveis aplicações práticas, tais como:
Personalização de conteúdos, permitindo que grande parte da informação do nosso dia a dia seja personalizada. Alguns exemplos são o Facebook, Twitter, Instagram, e outos conteúdos dos media; anúncios online; recomendações de música no Spotfy; recomendações de filmes na Netflix, HBO, e outros serviços de streaming.
Muitas das empresas de jornais online, websites de empresas de comunicação, e motores de busca como a Google, personalizam já os conteúdos que oferecem.
É assim, que ao passo que a primeira página dos jornais impressos é a mesma para qualquer leitor, as primeiras páginas das suas versões online são já diferentes para cada utilizador. Os algoritmos que determinam o
conteúdo que cada um de nós vê, estão baseados na IA.
Carros autónomos, carros que se guiam a si próprios, e que através da combinação de várias técnicas de IA procuram e planeiam o caminho mais conveniente para ir de A para B, identificando obstáculos, e tomando decisões (decidindo) perante a incerteza de certas condições complexas e dinâmicas.
Idênticas tecnologias são empregues noutros sistemas autónomos como os drones, os robôs de entrega, e os navios autónomos.
Processamento de imagens e de vídeo, permitindo que o reconhecimento facial possa ser já correntemente utilizado na identificação de clientes no comércio, nos negócios, e no governo, ajudando na organização de fotos por pessoas, segundo as classes em que se as queiram classificar, e, evidentemente, no controle policial de passaportes.
Técnicas semelhantes podem ainda, por exemplo, ser usadas para o reconhecimento de outros carros e de obstáculos à volta dos carros autónomos, ou para estimarmos as populações de animais selvagens.
A IA pode também ser usada para gerar ou alterar o conteúdo visual. Já hoje se pode mesmo alterar o estilo, permitindo que as nossas fotos apareçam como se tivessem sido pintadas por van Gogh, ou animar imagens geradas por computador, como as do Avatar e do Senhor dos Anéis, por replicação de gestos feitos por atores humanos.
Neste mundo azul em que estamos já submergidos, o seguimento digital (digital tracking) e os sistemas de tomada de decisão, tornaram-se rotina nas previsões políticas, no marketing, na consideração de concessão de crédito, na polícia, nas sentenças criminais, na gestão dos negócios, na finança, e na administração dos programas públicos.
Neste mundo azul, sabemos já perfeitamente que é por as empresas tecnológicas não quererem revelar os detalhes dos seus algoritmos, nem os princípios básicos que os fundamentam, que nos estamos a deparar com o aparecimento de novas formas de propaganda, das fake news, das troll factories, das câmaras de eco (echo-chambers), bolhas (filter bubbles), etc.
Sabemos já perfeitamente que devido à aplicação do processamento de imagens e vídeo, se torna cada vez mais fácil a realização de vídeos falsos de acontecimentos, impossíveis de distinguir de vídeos reais. Acabou-se o “ver para crer”.
Tudo isto são coisas que já se sabem, a que os meios de comunicação dão muito relevo, e a que nós já não damos muita importância, pelas vantagens do dia a dia que nos podem proporcionar.
Por tudo isto, é importante saber como minimamente operam essas empresas tecnológicas.
À partida, elas possuem ou compram bases de dados, de preferência com imagens. Uma das bases de dados mais utilizadas é a ImageNet, que contém mais de 14 milhões de imagens, em que a maior parte delas são de homens, na sua maioria brancos, (https://en.wikipedia.org/wiki/ImageNet).
É a partir destas referências que o sistema vai funcionar. Se a elas juntarmos a análise de milhares de textos que irão também servir de padrão, e nos quais os homens vêm normalmente associados a profissões como políticos ou programadores, e as mulheres associadas a donas de casa, mães, modelos, não é de espantar que ao fazermos uma pesquisa de imagens da palavra ‘médico’, nos apareçam fotografias de homens com bata branca. E, se pesquisarmos por ‘enfermeiro’, nos apareçam mulheres em hospitais. Esta é a consequência lógica da replicação dos algoritmos construídos a partir dessas bases.
No passo seguinte, para ensinar os sistemas de inteligência artificial a distinguirem um cão de um gato, fornecemos-lhes milhões de imagens de cada um desses animais. Depois, ‘treinamo-los’ (aos sistemas de IA, não aos cães e gatos) para que os aprendam a identificar.
Obviamente, exatamente o mesmo fazem também as polícias, que até usam o mesmo sistema de software. Neste caso, em vez de cães e gatos, treinam o algoritmo com fotografias de pessoas que tenham sido condenadas, com os bairros onde se registaram mais delitos ou com os bairros onde se registaram maior número de prisões.
Ou seja, os padrões com que a IA trabalha, são reproduções de estereótipos que lhe fornecemos. Trabalham com as nossas limitações, visões, e preconceitos, que normalmente utilizamos para marginalizar os outros.
Daí que, embora os sistemas de IA pareçam neutrais e objetivos, não o são. Dão-nos uma versão muito particular do que se passa.
Defensora do sistema, a professora da Escola de Economia da Universidade de Auckland e codiretora do Centro Social de Análise de Dados, Rhema Vaithianathan, entende que apesar destas limitações, assim que conseguirmos aperfeiçoar mais os algoritmos, o mercado livre e a informação gratuita poderão garantir os melhores resultados para o maior número de pessoas.
Donde se poderá concluir que, no limite, não será necessário qualquer tipo de governo.
O próximo blog, incidirá sobre aquilo que se pretende esconder por detrás da utilização da Inteligência Artificial.