Todas as épocas e todas as sociedades têm as suas formas de ignorância.
Oferecem-nos conhecimentos, produtos tecnológicos e culturais segundo a idade, a renda, a origem, etc.
Todas as opiniões, exatamente por não passarem de opiniões, valem o mesmo.
“A segmentação e a padronização são dois processos interligados e que têm como finalidade a gestão ordenada e previsível da incomunicação entre saberes e da sua inutilidade recíproca”, Marina Garcés.
Todas as épocas e todas as sociedades têm as suas formas de ignorância. E quem diz ignorância, diz credulidade. No nosso caso, é a ignorância transformada em crença de uma multitude de conhecimentos que, não podendo serem acompanhados nem elaborados por nós próprios, veem a sua execução ser delegada noutro, normalmente numa máquina ou num especialista.
A esta forma de atividade delegada que oculta a nossa própria passividade, chamou Robert Pfaller de “interpassividade” ou “subjetividade interpassiva”.
Temos assim, que muitas das informações feitas pela máquina estabelecem connosco uma relação sem relação, pois dela não retiramos qualquer experiência ou compreensão.
É, por exemplo, o caso das muitas fotocópias que, tendo-as feito, nunca iremos ler, ou das músicas ou filmes que, tendo-os gravado ou descarregado, nunca iremos ouvir ou ver.
Temos também, o aparecimento dos especialistas que tudo sabem apenas sobre uma disciplina, ignorando quase todas as outras noções do que se passa à volta, como resultado do desenvolvimento das ciências e das técnicas que se fizeram acompanhar desse novo tipo de ignorância que a todos afeta.
Até meados do século XX, esta tendência era como que amortecida pelos cultores da cultura geral, que tentavam explicar e servir de caixa de ressonância às variadas experiências oferecidas pelas especialidades científicas, artísticas e humanísticas.
Só que hoje isto já se não verifica. A verdadeira especialização, cada vez mais complexa, fica apenas nas mãos de muito poucos, e o que se oferece é antes uma segmentação de saberes e de públicos. Oferecem-nos conhecimentos, produtos tecnológicos e culturais segundo a idade, a renda, a origem, etc.
A segmentação é a forma de categorizar, pautar e organizar a receção dos saberes, para assim conseguir geri-los de maneira previsível e identificável. A sua finalidade é a padronização (normalização) da produção cognitiva.
Seja sobre que for, já não se trata de ligar experiências, mas sim de modos de funcionar. Seja do que for, tudo funciona da mesma forma.
Veja-se o que se passa com a moda: os mesmos calendários, temporadas, aceleração das mudanças, personalização das tendências, em que todos se movimentam pelas mesmas ruas das mesmas cidades, com a mesma panóplia de anúncios e com a mesma necessidade e intensidade de mudança de aspeto para que tudo fique na mesma.
Nas universidades, sucedem-se as ciências que não se comunicam entre si, ensinando-se com os mesmos parâmetros temporais, com os mesmos dispositivos institucionais e com os mesmos critérios de avaliação. Muitas das vezes, nem se sabe o que é que os departamentos vizinhos estão a fazer, e, contudo, em todas as universidades do mundo, funcionam todas da mesma maneira.
No aparato mediático da opinião (media) que hoje domina minuto a minuto o sentido comum do conjunto da população, vemos esta mesma padronização levada ao extremo, em que as opiniões se oferecem lado a lado em simultaneidade nos vários canais, com maior ou menor detalhe conforme as audiências (1), sempre com o mesmo pressuposto: dar opinião, impedindo assim que se possa ir para além dela.
E isto porque todas as opiniões, exatamente por não passarem de opiniões, valem o mesmo. São postas lado a lado, umas das outras, perdendo assim toda a possibilidade real de comunicação.
“A segmentação e a padronização são dois processos interligados e que têm como finalidade a gestão ordenada e previsível da incomunicação entre saberes e da sua inutilidade recíproca”.
Subjacente a tudo isto, temos ainda que lidar com a história que a sociedade se conta a si própria. Sabe-se que as elites não controlam as sociedades apenas por deterem os meios físicos de produção (dinheiro e outros recursos), mas também por influenciarem o discurso cultural, o modo como a sociedade fala de si, como se vê a si própria, como se reconhece.
E esta forma de influenciarem o discurso cultural passa, em parte, pelos assuntos que são publicamente discutidos, mas também por aquilo que não é mencionado em público, por se considerar ser falta de educação, tabu, aborrecido ou simplesmente por se considerar que é em si mais que evidente.
Tudo isto que não é mencionado em público e que é crucial para suportar a história que a sociedade se conta a si própria, constitui o “silêncio social”.
Este conceito de “silêncio social” foi pela primeira vez expresso pelo antropólogo francês Pierre Bourdieu, na sua obra Esquisse d'une theorie de la pratique precedé de trois etudes d ’ethnologie kabyle, 1972.
O “silêncio social” e a “interpassividade”, fazem parte das receitas que nos têm vindo a conduzir a uma quase total incomunicação ou a um palrar onde a fala vai perdendo significado. Gostamos do som, da cor e do movimento.
Sobre o aparato mediático da opinião é importante conhecer-se o maior gigante americano dos média de que ninguém ouve falar, Sinclair Broadcast Group, dono de 173 redes de televisão locais, com uma organização totalmente diferente das outras empresas de televisão, começando logo pelo facto de o nome Sinclair ou SBG não aparecer em nenhuma das suas 173 estações, e por os apresentadores lerem quase em simultâneo as mesmas informações da empresa como se tratassem de notícias fidedignas: (https://www.democracynow.org/2018/4/3/media_giant_sinclair_under_fire_for).
Num planeta de recursos finitos, o crescimento ilimitado não é possível.
Desenvolvimento sustentável é aquele que assegura as necessidades do presente sem comprometer as possibilidades das gerações futuras para garantirem as suas próprias necessidades, Relatório Brundtland, 1987.
A sustentabilidade do sistema económico como dogma é o grande argumento que tem servido para impor as políticas de austeridade.
O sujeito, como consciência e vontade, perdeu a capacidade de dirigir a ação no mundo, deixando de ser o timoneiro da história, Gunther Anders.
A partir dos anos setenta do século passado começou a aparecer na sociedade ocidental uma consciência mais generalizada de que o crescimento económico, a sociedade de consumo, o produtivismo, possivelmente não seriam sustentáveis: num planeta de recursos finitos, o crescimento ilimitado não era possível.
Para responder à pergunta de até quando poderia o planeta, como conjunto dos recursos naturais necessários para a vida, aguentar sem colapsar o ritmo de exploração e de degradação a que a atividade produtiva o submetia, o Clube de Roma apresenta em 1972 um extenso relatório, Limits to Growth (Os limites do crescimento) com uma compilação de cálculos e projeções (feitos pelo MIT) sobre o estado do mundo do ponto de vista ambiental.
A sua conclusão foi que o Planeta Terra não suportaria o crescimento populacional devido à pressão gerada sobre os recursos naturais e energéticos e ao aumento da poluição, mesmo tendo em conta o avanço tecnológico.
A ‘solução’ para este problema aparece 15 anos depois, em 1987, no relatório da Comissão Mundial para o Ambiente e Desenvolvimento das Nações Unidas, comissão que se reuniu na Noruega, presidida pela primeira-ministra Gro Harlem Brundtland (daí ser conhecido como “Relatório Brundtland”). O verdadeiro título do relatório é “Our Commom Future” (O nosso futuro comum), e onde se aponta a solução através do desenvolvimento sustentável, definido como o “desenvolvimento que assegure as necessidades do presente sem comprometer as possibilidades das gerações futuras para garantirem as suas próprias necessidades”.
Embora seja uma definição vaga (abrangente que baste para lhe garantir a adesão da grande maioria dos votos), não deixa, contudo, de ser conseguida, por nomear dois problemas importantes: a degradação ambiental que tão frequentemente acompanha o crescimento económico e a necessidade de que tal crescimento tenha em consideração o alívio da pobreza.
A partir daí, pelo menos teoricamente, o pensamento sobre a sustentabilidade passa a estar ligado a três vetores: a sustentabilidade económica, social e ambiental.
Desde o início esta definição provocou várias controvérsias que se diziam ser em torno da terminologia: na realidade, era o conflito político e económico instalado, tendo mesmo levado à intervenção de Henry Kissinger, pretendendo blindar o vetor económico. O neoliberalismo começava a ganhar a batalha das ideias.
Hoje assistimos à recuperação da sustentabilidade apenas na sua componente económica como fundamental para o crescimento (económico, evidentemente). A sustentabilidade que se advoga agora não é só a dos recursos naturais, mas apenas e do vetor económico: a sustentabilidade do sistema económico como dogma.
Este é o grande argumento que tem servido para impor as políticas de austeridade, ou seja, reduzir e privatizar os serviços públicos.
Em vez da austeridade como valor ético, como posição anti consumista, respeitadora do meio ambiente, a austeridade que se invoca para assegurar a sustentabilidade do sistema funciona como uma máquina para reduzir o gasto público e para reduzir as espectativas de uma boa vida que passa a ser considerada como condição de privilégio.
E o problema que se põe é o de sabermos até quando poderemos aguentar estas condições de vida que nos impomos sem nos estropearmos ou sem nos extinguirmos?
Ou seja, o problema que nos anos setenta se punha e que tinha que ver com a sustentabilidade do planeta, passou a aparecer-nos como o da sustentabilidade do sistema, e agora, como o da precariedade das nossas vidas.
Precariedade bem visível acima de tudo pela impossibilidade de intervirmos nas próprias condições de vida. O fim de uma forma de viver. É um novo sentimento de desespero.
Em A obsolescência do homem, Gunther Anders (1902-92), dizia-nos, a propósito dos desenvolvimentos técnicos que tinham permitido uma nova capacidade de destruição programada produzindo os campos de extermínio e a bomba atómica, que a ação humana, individual e coletiva, não estava à altura da complexidade que ela mesma origina. O sujeito, como consciência e vontade, perdeu a capacidade de dirigir a ação no mundo, deixando de ser o timoneiro da história.
Adenda:
As metas e os prazos saídos das várias reuniões da Comissão Mundial para o Ambiente e Desenvolvimento das Nações Unidas são periodicamente verificados (Assessements).
Em 2005, o Millennium Ecosystem Assessment vem dar-nos um resultado completo e atualizado, da intervenção dos homens relativamente à sustentabilidade do ecossistema:
No respeitante à regulamentação da água, da erosão, do tratamento das águas e esgotos, da doença, das pestes, da polinização, do clima, dos valores espirituais e religiosos, estéticos, recreação e ecoturismo, só num destes indicadores, o da regulamentação do clima, é que se verificou uma melhoria; no respeitante à pobreza, 85 milhões de pessoas estavam malnutridas em 2000-02 enquanto em 1997-99 eram 37 milhões, a desigualdade aumentou, 21 países baixaram de posição segundo o Índice de Desenvolvimento Humano.
Note-se que estes níveis de empobrecimento global seriam ainda maiores, se não fossem atenuados pelo rápido crescimento económico da China e India, o que significa que a pobreza é profunda e persistente noutras regiões, especialmente na Africa subsaariana.
Para além do aumento substancial no consumo de matérias-primas e recursos vivos, o ritmo e a escala das alterações introduzidas na biosfera não têm comparação com qualquer outra época da história, tendo quase todas impacto negativo. A extinção de espécies atinge valores superiores de 100 a 10.000. “Estamos imersos num dos maiores registos de extinção da história geológica”.
As transformações da terra introduzidas pelo homem têm-se acelerado, particularmente nos países com processos de industrialização rápida, e de tal forma que se diz que “estamos a mudar a terra mais rapidamente do que a conseguimos entender”.
Esta capacidade para destruir os sistemas essenciais para a vida é algo de novo. A humanidade está rapidamente a queimar os seus recursos naturais bem como a sua capacidade para suportar a vida sem pensar não só no futuro, mas também nos direitos e necessidades atuais.
As pessoas preocupam-se com o facto de os computadores ficarem demasiado inteligentes e que possam tomar conta do mundo, mas o verdadeiro problema é que eles são muito estúpidos e já tomaram conta do mundo, Pedro Domingos.
Os computadores podem ‘escrever’ programas que as pessoas não conseguem entender.
“Ao contrário do que procura cada vez mais incessantemente a ciência moderna, o ideal alquimista não reside na descoberta de novos fenómenos, mas sim em reencontrar um antigo segredo, que ainda é inacessível e inexplicável para a maioria”, Alquimia, Manual Completo.
Para um computador fazer qualquer coisa, necessita que lhe seja dada uma instrução escrita pormenorizadamente detalhada que lhe explique como é que o vai fazer. A essa sequência de instruções dá-se o nome de “algoritmo”.
Essas instruções são fisicamente transmitidas ao computador pelo ligar (1) e desligar (0) de pequenos interruptores conhecidos como transístores. Um computador é constituído por milhões desses pequenos interruptores, e o algoritmo vai-lhes dar ordens para ligar/desligar milhares de milhões de vezes por segundo de acordo com uma certa sequência, por forma a conseguir expressar uma ordem lógica do raciocínio que queremos, utilizando apenas três operações da lógica: E (conector de conjunção: o Carlos E o António, 2 E 4, 2+4), OU (conector de disjunção: hoje é quarta OU quinta) e NÃO (negação). Nada fácil.
Hoje em dia há algoritmos para tudo e mais, milhares de milhões deles, e sempre a aumentarem. O que origina alguns problemas: dado o número incrível de informações que têm de ser armazenadas na memória do computador, se o algoritmo necessitar de mais memória do que aquela que o computador tem disponível, terá de ser posto de lado; se o algoritmo for muito complexo, o computador irá levar muito tempo a corrê-lo, impedindo a sua utilização, pelo que será também posto de lado.
E, há ainda o problema de os algoritmos serem tão intrincados e complicados (devido às interações que possam estabelecer entre eles) que o cérebro humano não os consiga entender, podendo provocar erros difíceis de detetar e corrigir.
Ou seja, tentar com algoritmos reproduzir exatamente qualquer ato da vida económica, científica, moral, etc., para obter resultados, acaba por torná-los de tal forma complicados que deixamos de os poder entender e verificar.
Uma maneira para ultrapassar esta limitação, é fornecermos ao computador os data disponíveis e o resultado que se deseja obter. Este “truque” vai-nos permitir obter o algoritmo que transforma os data no resultado, sem termos de gastar tempo a desenhá-lo.
A estes algoritmos que dão origem a outros algoritmos chamamos “algoritmos que aprendem” (learners) e, a este processo de aprendizagem chamamos “machine learning”. Utilizando a “machine learning”, os computadores escrevem os seus próprios programas.
Ou, dito de outra forma, os computadores podem ‘escrever’ programas que as pessoas não conseguem entender.
Isto tem sido extensivamente utilizado, faz parte já da “nossa” vida quotidiana (telemóveis, robôs, recomendações de compras, desenho de produtos farmacêuticos, automóveis autónomos, etc.).
Na prática, o que estes algoritmos que aprendem (learners) fazem, é reduzirem as escolhas para que os humanos as consigam gerir. Dizem os especialistas que não existe nenhum perigo na medida em que os objetivos e as decisões são normalmente feitas pelos humanos.
Pelo facto de os computadores poderem aprender, isso não significa que consigam, como por mágica, terem vontade própria. Os algoritmos de aprendizagem aprendem a alcançar os objetivos que nós lhes propomos. Não conseguem por si alterar esses objetivos.
Outro aspeto que é bom recordar é que, por melhor que um algoritmo de aprendizagem seja, ele depende essencialmente dos data que utilizar. Pelo que quem controlar os data, controla o algoritmo de aprendizagem.
Qual a relação entre Inteligência Artificial (IA) e “machine learning”?
A finalidade da IA é por os computadores a fazerem aquilo que os humanos normalmente fazem, sendo, portanto, a aprendizagem um dos seus aspetos mais importantes. Daí que se possa considerar a machine learning como um subcampo da IA. Só que a machine learning se tornou tão importante (reconhecimento de padrões, modelagem estatística, procura de data, descoberta de conhecimento, sistemas autorregulados, previsão de ocorrências, etc.), que acabou por se independentizar e até se sobrepor à IA.
As diversas 'escolas' de aprendizagem
“Aprender” dentro de um campo em que os data são infinitos, implica a necessidade de se fazerem assunções, o que vai obrigar os learners a “especializarem-se”, acabando por serem bons para umas coisas e não para outras.
Esta “especialização” dos algoritmos de aprendizagem tem que ver com as matérias a tratar, com as escolas de conhecimento em que se filiam, com os resultados obtidos. Podemos distinguir genericamente cinco dessas escolas de conhecimento:
Os simbologistas entendem que, perante um conhecimento inicial básico pré-existente, a inteligência limita-se a manipular os símbolos, da mesma forma que os matemáticos fazem ao resolverem equações quando substituem expressões por outras expressões.
Combinando diferentes peças de conhecimento, conseguem resolver novos problemas. Percebendo o que falta para fazerem uma dedução, através do algoritmo de dedução inversa tornam-na depois o mais geral possível.
Para os conexionistas, uma vez que a aprendizagem é o que o cérebro faz, bastará reverter o processo para obtermos o resultado. Como o cérebro aprende ajustando as forças de conexão entre os neurónios, o que temos de saber é quais são os que produzem erros e mudá-los.
Comparando o que sai do sistema com o que se desejava que saísse, para depois ir alterando sucessivamente as conexões de camadas atrás de camadas dos neurónios, podemos acabar por obter a saída do sistema que desejávamos. A este algoritmo dá-se o nome de backpropagation.
Os evolucionistas acreditam que a mãe de toda a aprendizagem é a seleção natural. O que temos de fazer é simulá-la no computador. O problema base que têm é o de aprenderem a estrutura: não se trata de ajustar parâmetros, como os conexionistas fazem com o seu backpropagation, mas de criarem mesmo o cérebro, para que depois se possam fazer as afinações.
O seu algoritmo é a programação genética, na pretensão de criar programas de computador que evoluam da mesma forma que os organismos da natureza.
Os Bayesianos, partem do princípio que todo o conhecimento é incerto, e que a aprendizagem em si é uma forma de interferência incerta. O problema é de como saber lidar com a informação incompleta, até contraditória.
Para eles a solução aparece através da inferência probabilística, sendo o seu algoritmo o teorema de Bayes. O teorema de Bayes diz-nos como incorporar novas evidências nas nossas crenças, através de algoritmos de inferência probabilística.
Para os analogistas, a chave para o processo de aprendizagem está em reconhecer semelhanças entre as várias situações, e a partir de aí inferir outras que lhe possam ser similares.
Se dois pacientes tiverem sintomas semelhantes, possivelmente têm a mesma doença. O problema é ajuizar o grau de semelhança entre esses sintomas. O algoritmo para os analogistas é a máquina de vetores, com a qual se consegue saber quais as experiências que se devem lembrar e como as combinar para se obterem novas predições.
Todas estas escolas resolvem muito bem, problemas que se põem nos seus campos. Mas, será que não poderá existir um algoritmo de aprendizagem, um learner, que inclua tudo o que exista num cérebro humano, tudo o que a evolução criou, e a soma de todo o conhecimento científico acumulado? Será possível fazer derivar dos data de todo o conhecimento passado, presente e futuro, um simples algoritmo de aprendizagem universal? A ser possível, estaremos a falar de um Algoritmo Mestre, o Master Algorithm, que terá de resolver os cinco problemas, e não apenas um.
Sigamos ainda o que nos diz Pedro Domingos, Professor no Departamento de Ciência de Computadores e de Engenharia na Universidade de Washington, no seu livro The Master Algorithm, How the Quest for the Ultimate Learning Machine Will Remake Our World, 2015 (tem tradução portuguesa A Revolução do Algoritmo Mestre, Como a Aprendizagem Automática Está a Mudar o Mundo, 2017):
“Para se curar o cancro necessitamos de compreender as redes metabólicas na célula: quais, e como, os genes interagem e regulam outros genes, que reações químicas são controladas pelas proteínas resultantes, e como é que a adição de uma nova molécula à mistura irá afetar a rede.
Será parvoíce tentar aprender tudo isto a partir do zero, ignorando todo o conhecimento prévio que os biologistas foram acumulando ao longo de décadas. Os simbologistas sabem como combinar este conhecimento com os ‘data’ das sequências do DNA, e mais outros, conseguindo obter resultados que sozinhos não alcançaríamos.
Mas o conhecimento que obtemos aplicando a ‘dedução inversa’ é meramente qualitativo: necessitamos de saber não só quem interage com quem, mas em que quantidade o faz, e a ‘backpropagtion’ consegue-nos dar essa resposta. Contudo, a dedução inversa e a backpropagation ficariam perdidas no espaço sem uma estrutura onde se pudessem ancorar as interações e parâmetros encontrados, e isso a ‘programação genética’ consegue fazê-lo.
Aqui chegados, se tivermos o conhecimento completo do metabolismo e de toda a data relevante de um dado paciente, podemos saber o tratamento a indicar.
Só que na realidade a informação que temos é sempre bastante incompleta, e por vezes até incorreta. Para prosseguir, vamo-nos socorrer da ‘inferência probabilística’. Nos casos mais difíceis, o cancro do paciente mostra-se muito diferente de todos os anteriormente conhecidos, e todo o nosso conhecimento falha. O recurso aos algoritmos com base nas semelhanças pode-nos salvar o dia encontrando analogias entre situações muito diferentes, mostrando-nos as semelhanças essenciais e ignorando as outras. […]
Como é evidente, “Este algoritmo a que chegámos não é ainda o Algoritmo Mestre […]”.
No Manual Completo de Alquimia podemos ler:
“O ideal alquimista não reside na descoberta de novos fenómenos, ao contrário do que procura cada vez mais incessantemente a ciência moderna, mas sim em reencontrar um antigo segredo, que ainda é inacessível e inexplicável para a maioria […]
A corrida atómica intensificou-se durante a Segunda Guerra Mundial, onde vários cientistas desenvolveram a bomba atómica que viria a ser a maior ameaça para sobrevivência da Terra. Se os alemães tivessem tido acesso a estes conhecimentos antes, não teria sobrado muita coisa em nosso planeta. Portanto se os cientistas tivessem mais consciência e um maior conhecimento das consequências das suas descobertas, não teriam divulgado muitas coisas. […]
A 15 de março de 2018, o The New England Journal of Medicine, publicou um artigo de Danton Char, M.D., Nigam Shah, M.B., B.S., Ph.D., e David Magnus, ph.D., investigadores da Universidade de Stanford, EUA, sobre algumas questões éticas que se põem devido à utilização do Machine Learning nos cuidados de saúde, “Implementing Machine Learning in Health Care – Adressing Etical Challenges”,
Em teoria, a utilização de algoritmos permite fazer previsões e tomar decisões alternativas sobre cuidados a prestar ao doente. No entanto, estes investigadores médicos chamam a atenção para o facto de esse algoritmo ser desenhado com a finalidade de poupar dinheiro ao sistema de saúde, ou para que as decisões sobre os diferentes tratamentos de doentes se basearem na sua capacidade para pagarem esses cuidados, por terem ou não um seguro de saúde.
Fazem ainda notar que a orientação clínica baseada na aprendizagem por algoritmos pode introduzir um terceiro “ator” na relação médico-doente, alterando a responsabilidade e a confidencialidade dessa relação.
E que o excesso de confiança na máquina pode ainda conduzir a falsos diagnósticos se os médicos introduzirem variáveis que nem sempre se aplicam às situações.
Pedro Domingos, apesar de nos garantir que não existe nenhum perigo de os computadores se independentizarem criando uma vontade própria, na medida em que os objetivos e as decisões são feitas pelos humanos, assegurando-nos sobre o futuro brilhante e radioso que se estende à nossa frente, não deixa, contudo, de manifestar algumas preocupações.
A primeira das quais se prende com a possibilidade de as IA caírem em mãos erradas, partindo do princípio (digo eu) de que até aqui elas estão nas mãos certas.
Uma segunda preocupação é a de os seres humanos, voluntariamente, entregarem o controle aos computadores (robôs), deixando-os tomarem todas as decisões, por eles serem muito mais inteligentes.
A sua conclusão é muito interessante, vinda de quem vem, um especialista em computadores:
“As pessoas preocupam-se com o facto de os computadores ficarem demasiado espertos e que possam tomar conta do mundo, mas o verdadeiro problema é que eles são muito estúpidos e já tomaram conta do mundo”.
Os mercados globais e suas agências são mais democráticos que os parlamentos eleitos.
Aos agentes políticos democraticamente eleitos restam-lhes apenas tomarem decisões sobre assuntos que não afetem o capital.
Acordos e decisões secretas constituem a base nos mundos da economia, da finança, e da guerra.
“Pobretes, mas alegretes”, provérbio popular.
Uma das teorias mais apreciadas na atualidade é a que nos diz que os mercados globais e suas agências são mais democráticos que os parlamentos eleitos, porquanto, ao passo que as votações para os parlamentos são apenas feitas de quatro em quatro anos, o processo de ‘votação’ dos mercados está permanentemente a ser feito (refletindo quase em tempo real as flutuações do mercado). Para além do mais, essa ‘votação’ é feita a nível global, ao passo que as votações parlamentares são feitas apenas a nível da nação.
Só seguindo essa teoria é que se consegue perceber melhor porque é que todos os órgãos de comunicação social transmitem e dão relevo horário e diário, às cotações do mercado, que na prática não servem para nada. Os poucos que jogam na bolsa não estão certamente à espera das televisões para obterem essas informações. Mas elas servem, e bem, para aos poucos irem intoxicando a grande massa de ouvintes sobre a existência de uma “realidade” superior dos mercados e da sua imprescindibilidade.
A ideia subjacente desta teoria é que as eleições parlamentares para pouco servem, uma vez que o controle verdadeiramente democrático é o dos mercados com o seu permanente plebiscito das flutuações no “mundo”.
A linguagem (esta sim, com implicações muito mais graves que as do Acordo Ortográfico) estudada e propalada por esta teoria estende-se a todos os campos da sociedade, penetrando, tentando convencer tudo e todos.
É assim, por exemplo, que quando nos defrontamos com a situação de deixarmos de ter um emprego de longa duração sendo antes obrigados a procurar um emprego mal pago e precário, esta nova linguagem diz-nos antes que nos foi dada a oportunidade para nos reinventarmos e descobrirmos os nossos potenciais criativos que têm estado escondidos dentro da nossa personalidade.
Que quando deixarmos de ter cuidados de saúde para todos, esta nova linguagem diz-nos antes que nos foi assim dada uma nova oportunidade de escolha, escolhendo nós os médicos ou as instituições prestadoras desses cuidados.
Que quando tivermos de ter de pagar pela educação dos nossos filhos, esta nova linguagem diz-nos antes que finalmente estamos a ser empreendedores responsáveis de um novo ser, atuando como o capitalista que tem de livremente escolher como vai investir os seus recursos (próprios ou emprestados), neste caso na educação, saúde, viagens.
Esta “liberdade de escolha” como libertação necessária para o aparecimento da nova pessoa, é bem rebatida por William Styron no seu A escolha de Sofia, em que a mãe se vê forçada a escolher entre os seus dois filhos, qual seria salvo de ir parar às câmaras de gás. Escolha trágica.
Mas, há também outras escolhas trágicas que uma mãe sem dinheiro e com dois filhos, terá de fazer diariamente nessa sociedade da “livre escolha”: Qual dos filhos poderá mandar à escola? Qual dos dois enviar para um campo de férias? Ou, a qual dos dois poderá comprar o computador? Ou, se em vez disso, não será antes preferível ter um prestador de saúde adequado para ambos?
Neste novo mundo em que nos vão colocando, dirão a este propósito os teóricos do mercado ‘democrático’ que as escolhas não são tão trágicas como as que Sofia tinha de fazer, porquanto todas elas não passam de “livres escolhas” que qualquer mãe terá de fazer, e que a irão transformar numa pessoa mais esclarecida, mais livre. Uma “educação” que o sistema lhes proporciona gratuitamente para que possam ser contadas como pessoas com interesse, e com direito a serem livres.
Na prática mundial, onde é que podemos ver esta “teoria” refletida?
Quando Trump anuncia que se vai retirar da NAFTA (North American Free Trade Agreement, Tratado de Livre Comércio da América do Norte), tratado de comércio regional em vigor entre os EUA, México e Canadá desde 1994, e que tem tido mútuas vantagens para as partes, há quem fique perplexo com essa decisão, atribuindo-a a mais uma das peculiaridades do presidente dos EUA.
O que acontece é que Trump pretende substituí-lo por um outro tipo de tratado bilateral idêntico ao que está a ser negociado com 23 países membros da Organização Mundial do Comércio (WTO) onde se inclui a UE União Europeia), o TiSA (Trade in Services Agreement).
De um modo geral este novo tratado pretende vir a constituir-se como que a coluna vertebral estruturadora do mercado mundial, visando criar um quadro de regulamentações que ponha fim às barreiras regulatórias existentes para que as multinacionais financeiras se possam expandir entre as nações sem entraves.
Assim, apesar do reconhecimento geral de que a crise financeira de 2007-8 tenha sido devida à falta de regulamentação, este novo tratado começa logo por proibir que os fluxos e serviços financeiros venham a ser objeto de mais regulamentos.
Mas o seu grande objetivo aparece explicitado na secção que pretende blindar os acordos alcançados por forma a impedir que os futuros governos, independentemente de quem ganhe as eleições, e os tribunais nacionais, possam vir a ter qualquer possibilidade de interferência nos acordos realizados, impedindo-os inclusivamente de desenvolverem novos projetos que venham a ser considerados lesivos para os previamente acordados.
Os “casos” de dúvida, seriam “julgados” em tribunais privados especiais para o efeito, fora dos sistemas judiciais dos países.
E, quando isto acontece com os governos dos países, imaginem o que acontece com os trabalhadores desses países e com as empresas meramente nacionais.
Acresce que todos os agentes envolvidos nestas negociações que ‘ninguém’ sabia que se estavam a realizar, teriam de manter o secretismo mesmo após cinco anos da entrada em vigor do negociado. Não fosse a WikiLeaks, a 19 de junho de 2014, ter tornado público os textos do que se estava a preparar, e ainda hoje nada se saberia destas negociações que retiram aos governos nacionais (e aos povos que melhor ou pior são por eles representados) qualquer capacidade para intervirem neste ‘novo’ mundo.
Já em 1998, Hans Tietmeyer, governador do Deutsches Bundesbank, louvava os governos nacionais por preferirem “o plebiscito permanente dos mercados globais” ao “plebiscito dos votos parlamentares”.
Mario Monti, primeiro-ministro italiano, deixava também conselho no mesmo sentido:
“Aqueles que governam não se devem deixar enredar pelo parlamentarismo”.
Não admira, pois, termos vindo a verificar que os acordos e decisões respeitantes às economias dos países, sejam negociadas e impostas em segredo, sem debate público. Pelo que apenas restará para os agentes políticos democraticamente eleitos as decisões sobre assuntos que não afetem o capital.
Quando Trump pretende substituir o NAFTA, é porque tem em vista um outro tipo de acordo no qual os governos sejam marginalizados, no presente e no futuro, cabendo apenas ao sistema financeiro regular o seu próprio sistema, dando liberdade total à circulação de capital.
Não se trata, pois, de uma peculiaridade de Trump, mas de um programa, uma orientação pré-estabelecida que os mentores e beneficiários do sistema que segue lhe impõem.
Aliás, acordos e decisões secretas constituem a base nos mundos da economia, da finança, e da guerra: a decisão para invadir um país é muitas vezes tomada antes do público estar preparado para ela, preparação que virá a ser feita depois pelos escritos da comunicação “sucial” sobre a ameaça que tal ou tal país representa. O resto são “fake news”.
‘Teoria’, é um termo que deriva do grego theoria (théo-ria, serviço de Deus), que para os filósofos da Antiguidade significava ‘contemplação’. Englobava a perceção, o conhecimento e a aceitação da ordem das coisas, encontrando-se frequentemente associada à sophia, como conhecimento dos primeiros princípios sobre os quais repousa a ordem do mundo e das vias de demonstração que permitem deduzir as suas consequências.
Através destas vias demonstrativas é que a sabedoria teórica incluía e se relacionava com a ciência (episteme), ou seja, com aquilo que diz respeito ao que é demonstrável.
Ou seja, desde a origem, a noção de teoria apresenta duas direções diferentes. Uma que se refere ao racional, discursivo, demonstrativo da atividade cognitiva, e outra que se refere à parte intuitiva da atividade teórica que tem que ver com o conhecimento dos princípios sobre os quais se podem fundar as demonstrações lógicas.
Daí que o conhecimento nos apareça nesta última interpretação como uma espécie de iluminação, como que derivado de um de estado de graça, duma convivência divina, que dará lugar às maiores especulações e às opiniões mais diversas sobre o melhor meio de o alcançar.
Estas singularidades e ambiguidades continuam hoje a existir, acrescidas de outras: será que é a teoria (como conceção do conhecimento) que vai fazer com que a prática desse conhecimento se venha a realizar, ou será que é a prática (que se está a realizar) que origina a teoria que a venha a validar?
Ou seja, será que é a teoria do mercado ‘democrático’ que faz com que a ‘sociedade’ se mova nessa direção, ou será que é o movimento da ‘sociedade’ que origina o aparecimento da teoria do mercado ‘democrático’?
Em qualquer dos casos, o objetivo pretendido é o da marginalização dos governos dos estados, dado que só pela sua existência, prejudicam a livre circulação do capital, devido à sua ‘imprevisibilidade’ e à sua ‘impreparação’ para lidar com os problemas “complexos” postos pela nova economia financeira global.
Na realidade, não se trata de impreparação, mas de distração consentida, ao ponto de fingirmos (ou preferirmos) não saber quando nos estão a ir ao bolso. Há, contudo, justificação: é que durante os quatro anos das legislaturas temos muitos espetáculos para ver.
Além disso, “sempre foi assim”. A receita assenta em “produtos” que de há muito vêm sendo acarinhados (tal como recentemente as cotações da bolsa nas televisões), traduzidos em frases e aforismos como:
“Pão e circo”. “Com papas e bolos …”. “O povo quer-se humilde”. “Pobretes, mas alegretes”.
Pois.
Nota: dois artigos a ler, o de Adriano Moreira, 28 fev 2018, sobre a crise das instituições multilaterais