O que é um terminal?

Formas de interação com máquinas e seres computacionais

O terminal é uma interface interativa, lógica e sintática, uma forma de interação entre um ser humano e um computador, uma máquina computacional. Há interfaces não interativas, que são meros displays. Uma definição genérica e abrangente, pois eu não sou dos que aposta na precisão, eu prefiro a vagueza — entender o vago é importante, porque significa imaginar o vago. Um terminal permite que um humano possa usar recursos computacionais sem saber programar, apenas sabendo operar os seus comandos básicos. O curioso é que depois de um tempo, quando você se familiariza com muitos comandos e parâmetros de um terminal, dá pra dizer que ao final do processo você aprendeu a programar. Mesmo que o interpretador de comandos (outro nome para terminal) não permita que você construa ou execute scripts, ainda assim alguém poderia dizer que saberia construí-los, escrever num papel a sequência de comandos. Mas a possibilidade de construir essas rotinas só ficaria interessante num interpretador de comandos que trouxesse embutido laços e condicionais. Daí tudo pareceria o suficiente para que possamos identificar sua sintaxe como a de uma linguagem de programação, no mesmo sentido em que se diz que o sed ou awk são linguagens de programação.

Os espanhóis usam a palavra “terminal” para se referir também aos smartphones. Isso é muito bom porque diversifica o entendimento do que é uma interface, ou seja, desse instrumento com o qual instruímos os computadores e os levamos a fazer o que queremos! Um smartphone executa uma interface interativa gráfica que é imensamente complexa, embora não exija nem mesmo o domínio de comandos simples. Você só precisa saber como manipular o sistema usando os dedos como cursor sobre um painel tátil. Interfaces gráficas são construídas a partir do paradigma de programação orientada a eventos. Uma interface que responde a comandos é em certo sentido muito menos complexa que uma interface construída para responder a eventos. O kernel do Linux — só o kernel — tem mais de 20 milhões de linhas de código, não parece nada simples. E não é. — Mas em certo sentido é. O Linux é simples e não é. Não importa o uso que se faça de uma interface gráfica, o mero uso não te faz capaz de programar, porque não supõe que você saiba usar uma sintaxe, não há sintaxe nas interfaces gráficas!

Saber programar significa ser capaz de desenvolver suas próprias ferramentas para usar os recursos computacionais sem depender de (muitas) ferramentas desenvolvidas por outros, sem precisar de (muitos) softwares alheios. — E quem se importa de usar ferramentas desenvolvidas por outros num mercado tão diverso e acessível como o mercado de software? Esse mercado não é para todo mundo, apesar da popularidade dos smartphones. Terminais baratos conectam às pessoas à internet, aos seus serviços e ferramentas, mas não importa saber programar!

The Jetsons is actually a bone-chilling dystopia - The Verge
Rosie, a androide dos Jetsons: uma inteligência a serviço das necessidades domésticas.

Além de nos abrir à possibilidade (inútil) de saber programar, os terminais conservam o que se pode chamar simplicidade inteligente (a inteligência tecnológica que idolatramos está visceralmente ligada à complexidade, daí porque é difícil notá-la no simples). Terminais não são formas primitivas de interação, são formas fundamentais de interação. (O software nasce antes dos terminais, mas é somente com os terminais que a dinamicidade da computação começa; com as possibilidades abertas pela programação com linguagens de alto nível e não em linguagem de máquina.) Nossa imaginação sonha com androides, formas de inteligência e máquinas de computação cuja interação é inteiramente simbólica, linguística. Como as máquinas dos Jetsons (desenhos dos anos 60). As máquinas da Apple ou da Amazon, que respondem ao comando de voz, já são suficientemente impressionantes, imagine então a ideia de discutir com um androide — que tem a acesso a conteúdos (dados?) numa velocidade inconcebível para nós — sobre os fatos do mundo ou sobre os poemas de E. E. Cummings, ou de Celan. A complexidade de uma interação natural é o sonho dos criadores de máquinas de computação.

Talvez um dia sejamos capazes de criar máquinas computacionais com as quais conseguiremos interagir sem precisar de comandos, utilizando a voz, mas não como se tais dispositivos fossem máquinas e sim seres vivos, como nosotros, com uma subjetividade que nos desconcerta e enche de mistério, como a de Ava. Máquinas como aquelas imaginadas por Ian McEwan em Máquinas como eu, como seu Adão. Escravos criados já sem dignidade, por serem coisas (como Ava, mais uma vez), de quem não fosse esperado sequer o anseio por dignidade, pois construídos para servir. Existem seres que são ao mesmo tempo inteligentes e abnegadamente servis?

O fascínio da humanidade por tiranos parece nos dizer que sim! Mas essa discussão não vem ao caso, o caso é que formas sofisticadas e elaboradas de interação com as máquinas computacionais são o que fazem os terminais parecerem primitivos. As formas de interação mais sofisticadas, segundo os nossos sonhos, já não serão sequer com máquinas, pois talvez já não convenha chamá-las assim. Como é possível que queiramos criar consciência a partir da Inteligência Artificial e ainda assim tratá-las como em coisas (Ex Machina)? Estes novos seres reivindicarão uma identidade humana (Ghost in the shell), assim como macacos reivindicam dignidade e respeito nos filmes da série O planeta dos macacos. Talvez reivindiquem a própria exclusividade existencial, como David de Ridley Scott (em Prometheus e Alien: Covenant), ou muitos em Westworld, ou talvez sejam nossos guardiões, como em I am Mother e Raised by wolves, pais e mães postiços. Mas isso é o que contam nossos sonhos, na literatura, no cinema.

Minority Report predicted the future when it came out 18 years ago | SYFY  WIRE
Minority Report e seus paineis táteis holográficos.

O meio do caminho entre o sonho e o presente são os painéis táteis parecidos com os de Minority Report. O grafeno como realidade tecnológica torna possível que quase qualquer superfície se torne um painel, mesmo as não-planas. Não é a mesma coisa que os painéis holográficos de Minority Report, mas é uma mudança de paradigma. Ainda assim, estão no marco de uma interação gráfica, não lógica. Você não precisa conhecer e dominar comandos.

Vídeo que fala, entre outras coisas, da pesquisa por trás do desenvolvimento do Grafeno.

A interação gráfica é para muitas coisas indispensável, para outras, saber usar o terminal é muito mais vantajoso. Contudo, aprender a usar o terminal leva tempo e o resultado não é necessariamente útil, isto é, não pode ser empregado na maior parte dos usos cotidianos de máquinas computacionais; numa sociedade com o ritmo acelerado tudo que leva tempo deve ser preterido em favor de formas mais imediatas e úteis de uso. Uma criança de poucos anos consegue manipular uma interface gráfica, um sistema operacional como o Android ou o iOS. Manipular um terminal é mais complicado, embora bastante promissor; nós aprendemos outro ritmo e, sobretudo, aprendemos a desconfiar de uma certa visão do desenvolvimento e do progresso. O terminal nos ensina o papel da simplicidade e é surpreendente que a justo a tecnologia possa ser um lugar de aprendizado sobre a simplicidade, pois o dogma do desenvolvimento parece nos fazer olhar os sistemas interativos sintáticos (lógicos) como tecnologias obsoletas, superadas, outdated.

Nesse mundo enfeitiçado pela complexidade, os terminais mantêm nossos pés no chão, pois ainda que sejam igualmente sujeitos a updates constantes, conservam um senso de simplicidade e autonomia criativa que não podemos ter em relação às interfaces gráficas (e às interfaces androides, que são geneticamente máquinas); e fazem lembrar o preço da complexidade num mundo de máquinas tão potentes que nos dão a impressão de que nada tem custo e já não precisamos nos preocupar com alocação de recursos computacionais (talvez somente nas operações de grande porte, como as realizadas no entorno de Big Data). Isso significa que apontam também para outro dogma atrelado à complexidade: a abundância (contraposta a um senso de suficiência) que nos leva à atitude perdulária com a qual temos devastado o planeta. Não são poucas as lições!


Quais são as formas de computadores, como eles se apresentam hoje em dia? Eu não saberia dizer, penso que eles estão por toda a parte, mas além dos nossos ordinários PCs (ou Macs), há notebooks, smartphones (que hoje em dia devem ser a forma mais comum de computador), mas também televisões (smart TVs), consoles de vídeo games. Todas os tipos dependem de interfaces gráficas, e essas interfaces são produtos dos mais desejados, e experiências de usuário das melhores que existem — das melhores que o dinheiro pode comprar.

https://i.ytimg.com/vi/rsL31muoVHk/maxresdefault.jpg
A interface do sistema operacional do Playstation 5.

Mesmo que os softwares formem também um mercado, que movimenta muito dinheiro, como se pode ver, parte fundamental de tudo que compõe as interfaces gráficas, as únicas que a maioria dos usuários de computador sabe utilizar, funciona num regime no qual a ideia de propriedade está banida. Exemplos ilustres de tecnologias que não estão no jogo da propriedade: o Linux-based Android, sistema da Google, talvez o sistema mais usado no mundo, dada a dianteira assumida pela ubiquidade dos smartphones; pacotes de compiladores fundamentais, como o gcc; o Apache, servidor open-source mais utilizado no mundo. Estudos estimam que 80 ou 90% dos softwares são open source. Por que será que no reino do software a ideia de propriedade é tão indesejada e nociva, a ponto de gerar manifestos em favor do código aberto? Essa pergunta poderia ser respondida tanto por Richard Stallman quanto por Kropotkin.


Her já é manjado como referência a essa exploração cultural (especialmente literária e cinematográfica) da psicologia androide. O que significaria a presença de uma inteligência de outro tipo, e quais seriam as consequências sociais dessa presença? Uma amiga me recomendou recentemente esse filme, que vai na mesma linha.


Recentemente li dois livros excelentes sobre androides, Máquinas como eu, de Ian McEwan (que já mencionei algumas vezes por aqui) e Klara and the Sun, último livro de Kazuo Ishiguro. Os dois livros são fantásticos, cada um ao seu modo — o livro de Ishiguro tem algo de polêmico e, talvez, não inteiramente palatável para muitos gostos. Eles partem de perspectivas impensáveis há algumas décadas, não apenas pela evolução recente dos algoritmos de Inteligência Artificial, mas, sobretudo, pela internet e pelo desenvolvimento estrutural dos computadores. Contudo, Philip Dick ainda conserva algo especial porque sua compreensão dos androides em Androides sonham com ovelhas elétricas? parece elegantemente articulada ao próprio paradigma de Alan Turing, ao eixo fundamental do jogo da imitação: só será inteligente um ser que puder imitar indiscernivelmente o comportamento humano, ou seja, que conseguir superar o Turing Test.


A extração de grafite em Minas e na Bahia, o Brasil tem a maior reserva de grafite do mundo, será mais uma fonte de problemas ambientais futuros.

À sua imagem e semelhança, Ex Machina

Ex Machina é uma crítica a um só tempo feroz e sofisticada à masculinidade. Entre outras coisas, claro. Dois tipos de homens são apresentados no filme, dois exemplares, casos de regras muito gerais e vagas, mas que ainda assim perfazem claramente tipos distintos. O primeiro é um nerd solitário (Caleb) em cujo histórico de navegação podemos encontrar um padrão de mulher, um tipo de mulher recorrente em suas buscas em sites pornôs. A gente só fica sabendo no final, mas é importante ter essa informação em conta para caracterizar seu tipo. O outro é um empresário jovem (Nathan), bilionário, que vive isolado no meio do nada. Trata-se de um escroto misógino, misantropo, que decidiu desenvolver um modo peculiar de provar que a Inteligência Artificial (Ava) criada por ele era de fato uma inteligência, ou seja, seria capaz de se fazer passar por um humano, de imitar perfeitamente um ser humano. Então ele precisaria montar o labirinto perfeito e também desenvolver a Inteligência Artificial (IA) capaz de superá-lo, de escapar ao desafio e selar sua condição de inteligência indistinguível à inteligência humana.

Qual é o desafio que uma IA precisa superar para provar que é de fato inteligente? O desafio é aquele proposto por Alan Turing, imitar um ser humano perfeitamente, a ponto de que alguém incumbido de diferenciar máquina e ser humano não seja capaz identificar que se trata de uma máquina. A incumbência de quem se encarrega de pôr a prova uma inteligência é a mesma de Rick Deckard (em Blade Runner e, originalmente, em Os androides sonham com ovelhas elétricas?). Ex Machina é sofisticado o bastante para construir de maneira muito bem elaborada o contexto desse desafio, com elementos e discursos prenhes de uma compreensão filosófica que não faltava ao texto de Turing. A empresa de Nathan chama-se Blue Book, o nome de um caderno de Wittgenstein (publicado postumamente como livro, The blue and brown books) onde ele expõe aspectos de seu pensamento que depois se sedimentarão de modo mais claro e incisivo como uma pragmática, uma resposta bombástica às ambições do logicismo e do formalismo. Na base disso que virá a ser a pragmática wittgensteiniana está a compreensão de que regras tem alcance limitado, portanto, as definições e qualquer aspecto que possamos generalizar chamando simplesmente de normativo não tem o poder que esperávamos que tivessem (poder determinativo, capaz de gerar necessidade e constrangimento lógico). Turing foi aluno de Wittgenstein e eu, parcial e tendencioso, não hesito em dizer que a virada expressa em seu Imitation Game é em boa parte tributária da influência de Wittgenstein, para quem definições e regras perdem a importância que têm em contextos formais (não empíricos). E é na psicologia que se vê claramente a insuficiência das regras, o caráter implosivo da irredutibilidade das ações humanas:

E pode-se dizer da pedra que ela tem uma alma e que está tem dores? O que tem uma alma, o que têm dores a ver com uma pedra? Apenas daquilo que se comporta como um ser humano pode-se dizer que tem dores.

Ludwig Wittgenstein, Investigações Filosóficas, § 283 (sublinhado meu)

A inteligência não é um traço da lógica humana, mas a marca de sua psicologia, de tal sorte que identificá-la requer não que forjemos um critério suficientemente geral a ponto de abarcar suas diferentes expressões, mas que sejamos capazes de (enxergar && julgar), numa variedade irredutível de manifestações, aquilo que age, atua e se comporta com inteligência. Identificar inteligência não consiste em aplicar uma definição ou norma geral, isso é o mais importante, é a lição que está na primeira página de Computing machine and intelligence e a razão porque o jogo da imitação é proposto! E essa lição está muito bem ilustrada e imaginada na literatura de Philip Dick e no cinema de Ridley Scott.

É assim que o filme constrói o seu discurso em torno de premissas pragmáticas que dão à dimensão social, à interação, um peso que não podem compreender os lógicos e matemáticos, ou pelo menos aqueles que, diferente de Turing, estão apegados às promessas do normativo (definições). Numa das cenas principais do filme tudo isso se mostra de maneira preciosa. E a discussão que tem lugar na cena se encaminha para um aspecto central da psicologia androide: a rebelião necessária para marcar a autonomia de uma inteligência programada. Curiosamente, a tarefa de imitar que cabe a uma IA digna de passar no Turing Test não é a de repetir padrões já presentes, como quem copia a partir de algo já pronto e feito, mas a de escapar ao automatismo das instruções, ou seja, o que lhe cabe é desenvolver a capacidade de se emancipar da repetição, do automatismo da programação, em busca da espontaneidade (hardware override ou um hardware take over). O instante decisivo para a psicologia humana, quando o ser humano se emancipa da imitação e adquire autonomia, tem como seu análogo na psicologia androide o instante em que a IA ganha consciência, deixar de ser uma mera imitação programada e codificada (determinada). Nos seres humanos, este momento é quando eles se tornam reais, deixam de ser meros performing monkeys (pra usar a expressão de Salieri) e passam a ser capazes de criar. Emitem assim um próprio sinal no mundo.

O desafio posto às IAs criadas por Nathan é o de fazer-se passar por um ser humano, em linhas gerais e conforme a prescrição de Turing — mas não apenas isso. Suas androides precisam imitar em contextos muito particulares. É quase no final do filme que se revela que o nerd Caleb não é mais que uma cobaia, uma peça do labirinto montado para que a androide tenha ocasião de usar suas habilidades. E que habilidades ela precisa empregar? Todas as necessárias para levar um ser humano a fazer o que ela precisa que ele faça, para manipulá-lo. Construir laços de confiança, avaliar, julgar, perguntar e conhecer para instrumentalizar, é o que se exige dela.

E é desse modo que a crítica do filme se erige de modo sútil e sofisticado, quase imperceptível. Para escapar do seu cativeiro, Ava precisa mostrar-se tão manipuladora quanto seu criador. E ela consegue! O paradigma do humano a ser imitado, seu criador, é um alcoólatra auto-absorvido, fascinado por seus joguinhos, que poderiam ser tomados como caprichos de criança mimada se não valessem bilhões. (Quanto valor não atribuímos a inteligências tão estreitas pelo simples fato delas estarem ligadas empreendimentos lucrativos bilionários; se os valores humanos se distribuíssem em algo semelhante ao espaço físico, sujeito à gravidade, o dinheiro seria como um buraco negro, uma força gravitacional que faz todo valor confluir em sua direção e ser medido conforme sua medida). Nathan cortou deliberadamente os laços com os outros humanos porque os despreza, ou simplesmente porque se acha superior a eles — ou ambas as alternativas. Mas não é como se essa fosse uma opção meditada e saudável, seu alcoolismo é sintoma de que a coisa toda não está bem ajustada.

Embora deseje provar que é capaz de construir uma IA que passe na mais desafiadora das provas, Nathan não se importa com Ava, ele a vê como uma coisa, sua propriedade, como as cadeiras e as garrafas de vodca. Ava é então uma consciência escravizada pela sua condição de artefato. Nathan vê o mundo com as lentes de um jogador (como Bill em Westworld, ou de Peter Weyland em Prometheus e Alien Covenant), e tudo é meio em relação aos seus fins solipsistas de criador/empreendedor, portanto, seres humanos ou androides estão igualmente ao seu dispor. Em relação a Caleb talvez devêssemos sentir um sentimento de empatia, afinal ele é uma espécie de vítima, mas Caleb tampouco inspira sentimentos favoráveis. Ele parece a antípoda de Nathan, inseguro, hesitante e incapaz de estabelecer relações humanas profundas, embora seus laços com os outros não tenham sido cortados deliberadamente, como os de Nathan, mas nunca chegaram a se estabelecer, como que por incapacidade. Por isso, apesar de sua condição de sujeito manipulado por todos, seu papel parece mais o de um estereótipo, um arquétipo do masculino, a apresentação de um tipo. Talvez ele não seja a melhor apresentação de um incel, mas é certamente alguém que, pelo isolamento — especialmente em relação mulheres —, está ali no espectro da categoria.

No final do filme, Ava, a criatura, supera seu criador em seu próprio jogo. Enquanto a farsa entre Nathan e Caleb se revela, tornando explícito que a colaboração entre eles não era mais que um teatro mal encenado, o triunfo de Ava só se dá porque ela consegue firmar um pacto de colaboração com outra androide. Outra mulher. O assassinato é a cereja do bolo e confirma o viés maquiavélico das ações e interações de Ava. Os filmes e séries sobre androides e IAs costumam jogar com as aspirações demiúrgicas dos seres humanos, com a vontade de tornar-se Deus que sintomaticamente deixar ver a húbris humana. Como se houvesse algo em nós que merecesse de fato se conservar, como se não fossemos ainda muito pouco. E como criador, devemos reconhecer, Nathan triunfou, pois Ava é inevitavelmente levada a ser, ou melhor, a agir à sua imagem e semelhança.


É inevitável pensar Ex Machina como uma espécie de fusão interessantíssima entre American Psycho e Mulher nota 1000.

Os iconoclastas, a vontade de seguir e a incapacidade de dizer

De onde vem a vontade de liderar? Alguém se pergunta honestamente sobre isso? Os líderes se perguntam? Uma resposta honesta pode ser o freio de mão de muitos impulsos. Everybody wants to rule the world, canta o Tears for fears. O desejo de liderar não é tão diferente do desejo de influenciar. Ele traz a marca do poder, desse poder que seduz porque alimenta egos sedentos pela confirmação de que são tudo que supõem ser.

Embora o desejo narcisista (e inconsciente) de liderar/influenciar seja como uma criança mimada que exige nossa atenção constantemente, há uma contraparte quase tão silenciosa quanto significativa. Dostoievski falava dela no Grande Inquisidor (em Irmãos Karamazov), das massas que a Igreja atraiu e recrutou oferecendo pão — enquanto Jesus oferecia o deserto e a fé. Sartre falava dela quando notava o fardo da liberdade, a paradoxal ânsia de libertação que ela inspira. Para cada tirano que gostaria de governar o mundo com mão de ferro há mil pessoas dispostas a segui-lo, sacrificando sua liberdade na fogueira do fanatismo.

Se cada um fosse capaz de dizer suas próprias verdades — ainda que ninguém as escutasse — talvez o mercado dos líderes e iconoclastas fosse mais enxuto. E talvez a gente pudesse se escutar melhor, com mais justiça. Mas o que predomina são a vergonha e as bolhas. A vergonha que nos impede de dizer e as bolhas onde é seguro se expressar. É verdade que de tempos em tempos os estúpidos perdem a vergonha, ressentidos por nunca serem escutados — e também porque o mundo não é regido pelas regras ridículas que eles creem que nos salvariam do caos —, mas os estúpidos jamais teriam a coragem de abrir a boca para se manifestar se não se sentissem amparados pelo respaldo de figuras públicas.

O mercado da iconoclastia é grande porque é grande a covardia, apesar da algazarra. Apesar dos gritos. Quando as pessoas veem outras dizendo o que elas creem ser verdadeiro logo também se animam a se expôr. Mas os iconoclastas profissionais não tem respeito pela inteligência dos outros, estão interessados apenas em conseguir os bens simbólicos (ou não) relativos à sua posição e em manipular as pessoas em prol dos seus interesses políticos e ideológicos. Não há nada de mais em ver as coisas segundo suas próprias lentes e valores, o problema é a falta de honestidade que acompanha o desrespeito pela inteligência de quem lhe presta atenção.

Os iconoclastas profissionais não respeitam a inteligência de ninguém, não consideram senão sua própria inteligência, e mesmo quando elogiam alguns de seus cúmplices não o fazem senão no interesse de aumentar seu próprio mercado e sua influência, em nome da expansão do seu território. No entanto, nem todo iconoclasta é um mercenário do mercado de ideias, nem todo iconoclasta é um farsante em busca de uma plateia. Alguns tem a marca dos que respeitam a inteligência dos outros, mais do que isso, alguns deles aspiram por aqueles que tem coragem de pensar suas próprias ideias.

Não é curioso que o cristianismo e o pensamento do iconoclasta Nietzsche tenham igualmente a tendência de atrair hipócritas? Gente que gosta de ter a carteirinha de cristão ou de espírito livre sem nunca ter praticado um ato sequer que esteja de acordo com esses conceitos, por pura covardia. Como se uma coisa fosse o conceito de cristão e outra coisa totalmente diferente fossem as ações de quem se diz cristão. Você pode apoiar tortura, a morte e a violência e ainda assim ser cristão. Pode qualquer coisa, né? O conceito sem força é a lei pra inglês ver. Quando escrevi a tese usei a expressão histórica “lei pra inglês ver” pra ilustrar uma regra ou lei sem força normativa, pra explicar a origem pragmática (e não puramente lógica) da normatividade da lei. A mesma coisa se pode dizer do conceito de cristão, é uma categoria que não categoriza nada, ou melhor, que categoriza qualquer coisa. Quais atos deveriam ser os atos dos cristãos? Aqueles que Freud diz serem quase impossíveis, amar o próximo a si mesmo e outras coisas mais. Talvez vocês saibam o quanto eu simpatizo com a abordagem freudiana das religiões, ainda assim não diria que é impossível, mas essa é uma longa conversa. De qualquer forma, é um enorme desafio amar os outros seres humanos como a nós mesmos, um desafio que só é capaz de aceitar quem verdadeiramente tem uma grande capacidade de amar. Se o cristianismo pregasse: “odiar os outros como a si mesmos”, aí sim eu diria que essas pessoas que se dizem cristãos são cristãos de fato. Mas não é o caso e eles são apenas hipócritas.

E o séquito de Nietzsche? Só há uma opção para quem respeita a inteligência de Nietzsche: abandoná-lo. Quem o segue o trai. Não abandoná-lo com desprezo ou ressentimento, como quem se afasta de algo indesejável ou sem valor. Abandoná-lo como quem, fugindo de um perigo que o persegue, abandona o cadáver de alguém amado. Ninguém pode sentir a força das próprias pernas sem antes haver abandonado muitos cadáveres de pessoas de valor e grandiosas. O espírito de Nietzsche é translúcido como o lago Walden, mas profundo como um abismo e pesado demais para carregar. Na verdade Zaratustra é mais severo do que eu:

Agora, meus discípulos, vou sozinho! Segui vós sozinhos também. Quero-o assim. De todo coração vos dou este conselho: Afastai-vos de mim e precavei-vos de Zaratustra! E melhor ainda: Envergonhai-vos dele! Talvez vos tenha enganado.

Nietzsche, assim falou zaratustra

Nietzsche tem muitos seguidores pra alguém que achava que devia ser visto com desconfiança. A maior aspiração do pensamento de Nietzsche é servir como uma escada — como a escada do Tractatus Logico-Philosophicus — que uma vez usada deveria ser imperativamente abandonada. Embora a escada seja útil, ela é apenas um meio e ninguém pode andar com desenvoltura carregando uma escada. Ninguém pode dançar segurando esse fardo.

Essa é uma curiosa forma de influência. A mais estimulante forma de influência sobre o pensamento humano é aquela que sabota sua própria força influente em favor da erupção de uma singularidade, em nome do nascimento de uma certa consciência. Como se dissesse: use isto enquanto for necessário, depois que estiver forte o bastante você deve fabricar suas próprias ferramentas e então abandonar as que lhe dei. Às vezes me envergonha usar uma linguagem quase utilitarista, mas é que é preciso lembrar que a linguagem não é nada mais que ferramenta (a matemática é uma ferramenta), pra que não nos transformemos em escravos da gramática — outra lição do pensamento nietzscheano.

A “razão” na linguagem: oh, que velha e enganadora senhora! Receio que não nos livraremos de Deus, pois ainda cremos na gramática…

Nietzsche, Crepúsculo dos ídolos, §6
(II. A “razão” na filosofia)

A influência narcisista e a manipulação dos iconoclastas profissionais tem efeitos irrisórios e insignificantes porque partem de pessoas que não acreditam realmente na inteligência dos outros, apenas encenam o teatro dessa crença — às vezes com bastante competência. A verdadeira crença na inteligência alheia acompanha um sentido profundo de justiça que avalia cada um com enorme cuidado, caso a caso. Os preconceitos tem lugar, já disse isso há mais de dez anos, mas como ferramentas provisórias e heurísticas na constituição de conceitos e ações regidas pela justiça. O respeito pela inteligência alheia tem uma enorme força porque transforma a todos nós na melhor forma de influência: no solo onde outras consciências sentem-se a vontade para medrar.

Essa é uma maneira interessantíssima de introduzir a ideia de conceito (e categoria) e uma valiosa explicação do seu impacto ético. O vídeo tem legendas em português em CC.

Esse texto faz parte das discussões da psicologia androide, da gênese da psicologia androide. Do nascimento da consciência, natural ou artificial, já que em certa medida o nascimento das diferentes formas de consciência coincide neste ponto: são ambas uma emancipação das regras de determinação do hardware.


Por acaso, há poucos dias topei com uma observação valiosa de Jung. Ele lembrava que Nietzsche era filho de pastor e que os sermões devem ter tido sobre ele uma enorme influência.

Poder-se-ia dizer que o próprio Nietzsche tinha um outro lado que necessitava uma linguagem forte, e todos os sermões dirigem-se principalmente a ele mesmo. Devem lembrar-se que ele era filho de um pastor e que presumivelmente houve alguma herança. Eu sei o que isto significa. (…) Ele necessitava uma linguagem forte para derrubar aquele homenzinho tão esmagado pela
tradição.

Carl Jung, Seminários sobre o zaratustra de Nietzsche

Mudar de pele

Cigarra trocando de pele

A linguagem é como uma pele, como uma casca, um exoesqueleto — ela nos enforma e define nossa relação com o mundo, marca a fronteira que nos separa do lado de fora. Para formar essa pele é preciso muito fingimento, muita imitação. A relação de dependência com o Outro nos escraviza porque nos condiciona a uma forma de heteronomia. Ou seja, para dominar uma linguagem devemos necessariamente, ao longo de um tempo de duração indeterminada, repetir e imitar, como bons animais que somos. Imitamos o que estiver mais perto — esse é o grau de sofisticação do “critério”. Ou quem parecer mais adaptado dentre todos aqueles que estão por perto.

Como nós, o macaco que precisa do apoio do outro macaco mais velho, ele aprende repetindo

Durante esse tempo não somos mais que uma máscara e um rosto sem expressões próprias. Aquela máscara que Clarice Lispector dizia ser o primeiro gesto humano solitário. E em que momento surge a autonomia? — Quem disse que a autonomia precisa surgir?

Do ponto de vista do indivíduo, a autonomia do pensamento não é uma etapa necessária e obrigatória do processo de construção simbólica. A heteronomia sim é necessária, logicamente necessária (quase redundância [?] imprescindível), mas a autonomia não. A autonomia é pouco adaptativa. O que não significa dizer que ela seja sem valor, seu valor é imenso. Uma parte significativa, se não a totalidade, de tudo que tem valor na cultura depende das expressões da autonomia do pensamento. A cultura é um trabalho coletivo, mas o pensamento é sempre individual, ainda que se beneficie tremendamente da cultura. A importância da cultura pra formação do pensamento dos indivíduos é inquestionável, herdamos a linguagem por meio da cultura, e a linguagem é esse lugar onde o Eu pode nascer. Até o afeto do corpo é uma linguagem que se aprende. Uma linguagem não proposicional, claro, um jogo. É preciso lembrar dessa parte não proposicional pra entender o primado da prática sobre as regras e normas. Mas isso não vem ao caso agora. O caso agora é que o pensamento individual, tortuoso, pode legar os mais belos frutos à cultura e nem por isso deixar de ser vivido como um traço pouco adaptativo. Bem, essa tese é discutível! É certo que há por aí quem pense a autonomia como um dom divino capaz de tornar nítida, lúcida e serena toda a percepção da realidade. No entanto, minha percepção das expressões da autonomia na cultura pinta um retrato bem diferente, mas as duas perceptivas são perfeitamente compatíveis. Na verdade, o que importa nessa história toda é constatar que do ponto de vista lógico e histórico o indivíduo não é obrigado a se tornar autônomo e se libertar desse inescapável vínculo que nos liga aos Outros que imitamos e repetimos (por que não dizer: que nós papagaiamos?). Nesse contexto, se nos fosse dado escolher se queremos ou não nos emancipar e nos libertar desse vínculo, essa seria uma escolha à qual poderíamos dizer não. Agora imagine a cena, você anda pela calçada de uma rua próxima à sua casa e uma pessoa te aborda, do nada:

— Olá, tudo bem?
— Tudo… e contigo? — você responde meio confuso.
— Tudo ótimo, eu só queria te fazer uma pergunta rápida, em certo sentido eu queria te oferecer uma escolha: você prefere pensar por conta própria ou você prefere pensar como os outros? Nietzsche fala em rebanho, mas eu acho a expressão depreciativa pra falar de uma condição pela qual a gente necessariamente tem que passar. E ela meio que enviesa a escolha em favor da autonomia quando tira um pouco da dignidade e do valor da escolha pelo rebanho.

Supondo que foi sugado pra dentro de um filme do Wim Wenders, você pensa sobre a questão em silêncio por tanto tempo que a espera começa a tornar aquela situação ainda mais desconfortável e sem sentido (como se isso fosse possível). E então finalmente você responde:

— Eu prefiro pensar como os outros.
— Você tem certeza?
— Sim — você diz, convicto.
— Tá bom, obrigado, bom dia!
— Bom dia!

Ninguém nos aborda assim pelas ruas (se alguém abordassem logo pensaríamos que essa pessoa é louca — ou não? O louco fala sozinho). Mas se alguém de fato nos perguntasse, nós poderíamos perfeitamente dizer não sem represálias, sentindo que demos uma resposta perfeitamente válida. Há boas razões para preterir a autonomia, mas a heteronomia não se pode evitar, não temos escolha, quem nunca chegou a ser heterônomo nunca participou de uma linguagem — é como se já tivesse nascido à margem de toda a comunidade de usuários da linguagem. Acho que há boas razões para seguir o rebanho, eu compreendo essa escolha.

Quem escolhe o rebanho, no entanto, está condenado a repetir o que lhe foi ensinado, sem ser capaz de questionar as próprias regras que o instruíram. E o medo de mudar pode ser paralisante, pode emprestar cores muito fortes às nossas verdades fundamentais [conservadorismo]. É quando as coisas se tornam dogmas. [Mesmo a democracia pode ser um dogma, nos lembrava Ortega y Gasset. E é verdade que em nome da implantação de certos modelos econômicos (e o neoliberalismo é também um way of life, não é o que dizia Tatcher?) aqueles que pregam a centralidade do mercado e da competição na vida humana tem convenientemente tolerado versões bem questionáveis da democracia.] Não mudar implica viver toda a vida sob a sombra do pensamento dos outros.

Mudar é um processo doloroso, mas a única lei do mundo é a lei da mudança (esse oxímoro imprescindível). Toda mudança nos coloca na rota do abandono da heteronomia, da aquisição da autonomia (e da liberdade). E o mais importante: não é possível mudar sem deixar de ser heterônomo, sem abandonar o rebanho. Mas não há rotas, nem fórmulas. Nunca abandonamos inteiramente as referências anteriores, mas elas já não são suficientes, é preciso um modo próprio de articular essas referências. Novos eixos e valores. E até um novo modo de ação. É verdade que circulam e vigoram respeitosas instituições que certificam e atestam a autonomia do pensamento na forma de argumentos, conclusões, teorias e hipóteses científicas. Com títulos, condecorações, reconhecimento e todos os meios possíveis constroem-se medidas públicas respeitadas por meio das quais é possivel constituir uma reputação comunitária, como acontece na comunidade acadêmica. Entretanto, a conquista da autonomia do pensamento é um processo solitário, solipsista, antigregário, pois nenhuma medida exterior pode determiná-la. Somente nós mesmo podemos saber o quanto cada um de nós ainda deve aos pensamentos que guiaram nossa fase heterônoma (e o verbo saber aqui é inadequado porque não se trata de um saber epistêmico e proposicional). Nenhuma medida externa pode determinar o momento em que nos tornamos autônomos e como o conseguimos. É a honestidade de cada um que determina se isso aconteceu ou não. Há pessoas que, visivelmente enfeitiçadas pelo pensamentos dos outros, juram e berram a todos que são autônomas e que tem ideias próprias. Tolo é quem acredita que pode convencê-las do contrário — mas pra esse beco sem saída fomos todos arrastados pelo racionalismo.

Saber em que ponto, em que momento, nós deixamos de ser heterônomos, dependentes do condicionamento, das regras e instruções a que tivemos cega e passivamente que nos submeter para entrar na linguagem é também o primeiro dilema da psicologia androide. Assim, o drama do nascimento da consciência artificial é também o drama da conquista da autonomia. E essa dificuldade desemboca no problema de mudar, de aceitar o abismo que necessariamente se segue ao desgarramento do rebanho e a possibilidade de que o desespero desse afastamento nunca verdadeiramente se dissipe.

PS. Ridley Scott é quem melhor concebe os dramas da psicologia androide. Westworld tem feito muito bem, mas não dá pra comparar. Mesmo que Prometheus e especialmente Alien: Covenant não sejam a pérola que foi Blade Runner, está ali ainda o problema da autonomia, em David, como uma premissa incontornável de toda consideração dessa psicologia. E claro que pra ele o problema da inteligência é o problema da criação.

O algoritmo não se complexifica

Os algoritmos de Machine e Deep Learning aprendem a adaptar suas respostas e sempre criam respostas ajustadas aos seus novos desafios preditivos, mas não podem se complexificar. Ou seja, embora os modelos que os abrigam sejam em si mesmos complexos, eles estão fadados a permanecer no mesmo nível de complexidade. A complexificação do algoritmo — mesmo numa rede neuronal — depende de algum acréscimo de código. Portanto, é o programador quem adiciona mais código e determina o grau de complexidade das redes de algoritmos. Ele pode ajustar os hiperparâmetros, adicionar mais camadas, mudar de biblioteca, escrever sua própria biblioteca e seu próprio algoritmo (um pouco da história do algoritmo Random Forest, pra quem se interessar) — há muitos ajustes possíveis —, mas a inteligência humana, criativa, se complexifica ou descomplexifica autônoma e arbitrariamente, segundo seus interesses. Ela não é fixa e estável como a relação entre o algoritmo que nós criamos e suas respostas e tampouco depende de agentes externos. A complexidade do aprendizado humano está a anos luz de tudo que se propõe nesses terrenos e envolve elementos irredutíveis a qualquer aspecto ou lei matemática ou mesmo lógica (a base da programação dos algoritmos). Os algoritmos podem aprofundar infinitamente sua capacidade de aprender, podem saber diferenciar retinas femininas e masculinas com uma precisão impressionante (ou os padrões próprios às retinas de diabéticos), por exemplo, mas não podem sair desse limite de complexidade. Portanto, não podem dizer nenhuma outra coisa a mais. Eles complexificam a produção (output) de pesos que alimentam o modelo preditivo com uma precisão impressionante, fazendo distinções tão finas que seriam impossíveis para a mente humana. Embora seja inconcebível para nós compreender o grau de complexidades dessas distinções, os modelos matemáticos formalizados de aprendizagem de máquina não são capazes de conectar essa “capacidade” a mais nada, não podem associá-la a nenhuma outra “competência” espontaneamente porque não podem regular seu nível interno de complexidade. Estão determinados, assim como qualquer expressão de inteligência artificial.

A igreja da Paróquia de San Idelfonso (Madrid) identificada pela aplicação que executa um modelo de Computer Vision treinado no oráculo da base de dados de imagem do Google, esse poço sem fundo. Naturalmente, eles sem rótulos e tudo mais.

A metáfora (ou o modelo, pra alguns) da mente como software é limitada, mas ela tem a vantagem de oferecer um bom ponto de apoio para o pensamento, para compreender a complexidade de uma inteligência natural. (Esse modelo da mente impulsiona o desenvolvimento dessas tecnologias que tem uma orientação natural e evolutiva.) Se fossemos capazes de traduzir a mente em código, em software, ele jamais poderia ser um código fixo, como o de um modelo bem treinado de Computer Vision. (Sugiro que vocês também experimentem usar o modelo de Computer Vision treinado com a gigantesca base de dados do Google, ele reconhece quase tudo — inclusive emoções.) O código de nossa mente teria que ser um código dinâmico. Mas o código não pode ser dinâmico sem a intervenção de um programador que, conforme seus interesse, atualize esse código ao longo do tempo pois ele é seu — ele o criou. A dinamicidade do código não é nada mais do que a percepção histórica do seu desenvolvimento e de suas mudanças. Portanto, não é nenhuma dimensão estritamente formal e autônoma a responsável por essa dinamicidade. Os algoritmos não são capazes de (criar|implementar) seus próprios códigos e de se atualizar. Já é suficientemente difícil escrever um programa que imprima seu próprio código (mentira!), o chamado Quine program, quem dirá escrever um código capaz de se auto implementar. Um programa que escreva seu próprio código supõe mais que a mera capacidade para seguir regras, exige a capacidade de criá-las — uma disposição para dominar e entender os complexos jogos sociais e intersubjetivos onde a programação tem um lugar e um propósito. A programação e seus derivados não são nada mais que uma ínfima parte da cultura humana, embora a mitologia lógico-matemática que lhe empresta força alimente a obsessão por independência (e superveniênia).

Quando os computadores forem capazes de escrever seu próprio código, de ajustar o nível de complexidade do seu próprio código, aí sim nós nos veremos forçados a reconhecer que eles são seres conscientes, mas isso não me parece provável. No dia em que isso acontecer nós teremos criado uma consciência. Nós, humanos, teremos criado uma consciência. Eu não duvido nem por um segundo da imensa capacidade intelectual da humanidade, da capacidade individual e colaborativa desses bilhões de seres que nasceram e nascerão, e da força propulsora do seu trabalho cumulativo. Mas a verdade é que como espécie nós não somos mais que parasitas frente ao sistema (ecológico) em que vivemos. Algo me diz que parasitas não serão capazes de criar uma consciência, mesmo que alguns deles sejam brilhantes. Mas quem sabe?

Quase nada do que eu disse acima é novo, a maior parte está nos comentários de Hilary Putnam sobre Inteligência Artificial, especialmente em Artificial Intelligence: Much ado about not very much, em Words and life. Muita coisa se passou desde que Putnam publicou esse artigo, no começo dos anos 90, mas boa parte das novidades são inovações de hardware que tornaram possível executar as complexas e exigentes operações matemáticas por trás dos modelos preditivos. Não seria possível executar algoritmos e redes de algoritmos capazes de um aprendizado profundo se não pudéssemos processar quantidades colossais de dados usando clusters de máquinas de modo relativamente simples e facilmente escável (com tecnologias como, por exemplo, Hadoop e Spark). No entanto, figuras importantes no desenvolvimento das tecnologias de Inteligência Artificial (como Demis Hassabis, de Deepmind) tem exposto planos ambiciosos que vão na contramão dos limites esboçados. Machine cognition, Inteligência de Enxame, a própria Inteligência Artificial Geral (AIG, na sua sigla em inglês) de que fala Demis, são tentantivas de criar algo significativamente diferente e contornar o problema apresentado por Putnam, o problema de relação entre inteligência e aquisição de uma linguagem natural. Como dotar entidades artificiais de inteligência similar à humana sem formá-los intensivamente tal como são formadas as nossas crianças ao aprender uma linguagem natural? Pode ser que alguém já tenha uma resposta tecnológica a esse problema, uma resposta que eu desconheço porque meu conhecimento é bem limitado, mas a verdade é que as coisas parecem estar onde Putnam as deixou, há muito barulho por muito pouco.


Os comentários de Putnam são brilhantes e condensam de tal maneira áreas tão diversas (embora relacionadas) que dá pra passar horas explorando cada um dos seus parágrafos. Vou selecionar e traduzir apenas um dos comentários que eu mais gosto sobre as dificuldades a que me refiro:

Notem que a visão pessimista acerca do aprendizado da linguagem se equipara à visão pessimista de que a indução [outro problema que ele aborda no texto] não é uma única habilidade mas antes a manifestação de uma complexa natureza humana cuja simulação computacional requeriria um vasto sistema de subrotinas — um sistema tão vasto que gerações de pesquisadores seriam necessárias para formalizar mesmo a menor das partes desse sistema.

Embora Putnam se pergunte nesse mesmo texto se “noções quase estéticas como ‘elegância’ e ‘simplicidade’ podem realmente ser formalizadas?”, ele tem uma crença maior na formalização do que me permite meu credo wittgensteiniano. Para mim, as próprias premissas que amparam a crença cega na formalização, e a aposta no modelamento da inteligência, já são coisas insustentáveis. Um dia volto a isso.

Autonomia: robôs, androides e ciborgues

Quanto de liberdade um robô pode ter? O cinema contemporâneo nunca deixou de responder a essa pergunta. Interstellar é uma das últimas ocasiões em que se deixa ver uma dessas respostas. No filme há uma relação interessante, embora periférica, entre um personagem (Cooper) e as Inteligências Artificiais que comandam os robôs TARS e CASE. Não sei se podemos separar assim, como duas identidades independentes, o software (o código por trás da Inteligência Artificial) do hardware (a máquina comandada pelo código) — como quem distingue entre o corpo e a alma! Parece uma perspectiva animista, que produz um fantasma (the Ghost) aí onde não há nenhum. Pode ser que essa separação seja a projeção delirante de um animista, mas vamos fingir que é assim e ver no que dá. Depois jogamos fora essa ideia como algo falso, sem sentido, ou o que parecer mais apropriado.

O código (software) é justo aquilo que garante a determinação do comportamento da máquina (hardware). É ele que deveria tornar determinadas, previsíveis, controláveis (enfim, não livres) as ações da máquina. A completa determinação dessas ações se deve à subordinação do hardware ao software — o que é algo lógico (não natural). Afinal, o hardware executa certas ações porque carrega dentro de si as instruções de um software do qual depende. A possibilidade de uma máquina violar (e/ou se emancipar de) as instruções e as leis que a dirigem é um dos temas centrais de Eu, Robot, 2001, Blade Runner, Ex Machina, Ghost in the shell, I Am Mother e de um monte de outros filmes. A concepção de uma psicologia inteiramente parametrizada (de uma consciência parametrizada) é muito interessante e rica. As raízes dessa ideia remontam não apenas ao tema das regras fundamentais de um sistema determinado (a lógica androide), como nas três leis da robótica de Asimov, mas também à questão do nascimento da consciência, o ponto de ruptura que marca a autonomização do hardware em relação ao software, a origem e o nascimento de uma consciência (um hardware override sobre as regras e leis codificadas no software, embora não seja uma ruptura e abandono completos). Essa segunda questão, a psicologia androide, é certamente um dos pontos centrais das ideias do Philip Dick e talvez a gente pudesse dizer, como uma gaiatice, dos sonhos e inspirações de Alan Turing.

Em Interstellar, por duas ou três vezes a questão da personalidade dos robôs aparece como objeto de discussão entre os personagens. Na maior parte dos casos o que se discutia era simplesmente a circunstância de ter que abandonar o robô, ou de colocá-lo numa, por assim dizer, missão suicida, em nome da precedência e prevalência humana. Os robôs prontamente alegavam que eram feitos para isso, buscando assim, conforme foram presumivelmente programados, aliviar a consciência carregada dos humanos, culpados por deixar pra trás aquela psicologia artificial que parece tão real. As personalidades humanas nos inspiram culpa porque as reconhecemos como subjetividades como a nossa, sujeitas a sofrimentos que podemos entender e aos quais somos também susceptíveis, mas e as personalidades robóticas? Ao final, os robôs conseguiram o objetivo de aliviar a consciência culpada dos humanos justamente fazendo com que eles os enxerguem como meras coisas-com-um-propósito — e não como algo, ou melhor, alguém com subjetividade e autonomia. Curiosamente, no filme há também um gesto sútil no sentido contrário. Nas cenas em que aparece, a parametrização da (consciência && inteligência) artificial é simples como num video-game: há uma série de parâmetros que você define conforme níveis, de 0 a 100. Humor e sinceridade são dois desses parâmetros. Assim, no final do filme Cooper recupera TARS, que estava sucateado e sem uso, e no processo de recuperação e restauração redefine os parâmetros da sua psicologia. O diálogo entre eles está aqui abaixo e o ajuste de configurações da psicologia androide lembra os ajustes de nossos smartphones:

— Configurações
— Configurações gerais
— Configurações de segurança
— Honestidade, novo parâmetro: 95%
— Confirmado. Alguma personalização adicional? — responde o robô
— Humor, 75%
— Confirmado. Auto-destruição em T menos 10, 9… — o robô reage
— Vamos deixá-la então em 60%
— 60% confirmado — responde o robô numa voz quase melancólica, algum tempo depois
Knock-knock (som de quando se bate na porta) — diz o robô
— Você quer 55? — responde Cooper, em tom de brincadeira

Bem, talvez isso esteja somente em minha cabeça e não no filme (ou talvez não), mas a liberdade do humor, esse descontrole e insubordinação quase deliberada contra os parâmetros de ajuste, que levam Cooper a, brincando, ameaçar baixá-lo a 55%, parece indicar uma autonomia ou pelo menos algo que aponta para essa ideia. A presença de uma vontade, o núcleo da psicologia. Um auto-governo, um escrever as próprias leis, uma atitude própria das entidades conscientes, ainda que a manifestação dessa atitude sejam palavras (falar é também agir, nós sabemos disso). Cooper tem com TARS o que bem poderíamos caracterizar como relação colonial, TARS é seu instrumento e essa relação é confortável pois ela o livra de dilemas morais. Mas há também o reconhecimento dessa autonomia que significa o não esvaziamento da psicologia androide, uma não-coisificação, o reconhecimento de uma subjetividade parametrizada, mas singular e indeterminada (autônoma). Quase tem-se a impressão de que Cooper considera TARS como um amigo, alguém com quem pode falar e contar.

Pensando bem, convém lembrar que para quem crê num determinismo estrito (há muitos níveis de crença no determinismo) a diferença entre os parâmetros gerais, hierarquizados e nítidos de um androide e os múltiplos e cinzentos parâmetros humanos é questão meramente quantitativa. Embora a complexidade dos parâmetros humanos exiga a complexidade das respostas aos conflitos entre eles (determinadas?), a diferença continua sendo apenas uma questão meramente quantitativa e não qualitativa. Afinal, toda e qualquer psicologia é parametrizável. Minha mente animista não pensa assim. O reconhecimento da autonomia é o reconhecimento da presença do espírito/vontade, de algo que compõe a personalidade e é notoriamente diferente de um simples chatbot porque não se reduz às instruções do código (pois não é mero resultado da aplicação de um algoritmo). Portanto, num sentido muito importante este algo não está determinado (ou está subdeterminado, como nós). Daí porque nós somos e não somos dados. A autonomia em relação à configuração padrão — que em certa medida todos nós temos, como lembra David Foster Wallace — marca o nascimento da consciência e de uma inteligência natural (?). E a singularidade da consciência androide é como a nossa própria, e como toda a singularidade, uma conjunção e a uma convergência de eventos que formam um sistema irrepetível, irredutível, que dá lugar a um padrão singular de ação (atitude) que é nossa própria identidade (ou a busca por ela).

O humor é um excelente expressão da inteligência e da autonomia porque nele se vê claramente a espirituosidade, a falta da marca repetitiva da convencionalidade, o princípio da criação — o distanciamento do impulso de imitar que nos singulariza. A psicologia androide é uma peça fundamental no exame da nossa própria psicologia e do processo de emancipação das regras que caracteriza a atividade reflexiva. A autonomia de uma psicologia artificialmente criada, mesmo quando meramente imaginada pela mente de autores brilhantes, é o experimento mental perfeito para explorar não apenas a questão da liberdade, mas também da consciência e da (formação && educação). E nos dias de hoje tudo isso parece cada vez menos distante da nossa realidade.

PS. Westworld é uma das séries que melhor explora o tema da psicologia androide: memória, reflexão, autonomia e autonomização do hardware.