Eu nunca tive qualquer desejo de “batish my yisel”. Eu vou mais longe: não consigo prever um mundo em que gostaria de “batish my yisel”- ou o de qualquer outra pessoa – já que eu não sei o que isso significa. Agora, é possível que, se estiverem a ler isto do desconforto de um futuro distópico, estejam a gozar do meu pudor enquanto fazem “batishing” nos “yisels” uns dos outros freneticamente. Porquê? Bem, há alguns meses atrás, o site YouPorn pediu a um sistema de IA que previsse os termos que um dia poderíamos escrever em motores de busca de pornográficos enquanto nos sentávamos sozinhos em quartos escuros. Ao lado de “Doot Sex” e “Girl Time Flanty” esteve “Batish My Yisel”, e desde então pergunto-me o que pode ser um yisel. (Batished ou não)

O YouPorn não divulgou a sua metodologia, então é possível que a sua equipa tenha criado esses termos numa segunda-feira particularmente aborrecida, mas as redes sociais responderam à lista com alegria e fascínio. Será que isto pode realmente ser um vislumbre do futuro, um indício de que a IA pode ser capaz de imaginação, até mesmo de previsão? A produção de palavras inesperadas como “doot”, “flanty” e “yisel” sugere que a IA é capaz de pensamento criativo? Ou estas surgiram espontaneamente de falhas e fissuras no código que as alimenta? De qualquer maneira, a história tornou-se notícia – mas uma questão pairava no ar, como um miasma, acima de todo o interesse que gerava: Quando a IA cria algo tão bizarro e incomum como isto, está a ser inteligente? Ou estúpida?

Pensamos na IA como uma teimosa seguidora de regras. Nós fornecemos as instruções e ela obedece às nossas ordens da melhor maneira possível, dentro das suas capacidades. Depois, quando sai da norma e produz resultados inesperados, ridicularizamos a tecnologia pelo descontrolo e criticamos os seus criadores por não fazerem melhor. Em 2016, a Microsoft revelou orgulhosamente Tay, um chatbot do Twitter que foi concebido para “envolver e entreter as pessoas através de conversas informais e lúdicas”. Em poucas horas, o Tay viu-se incapaz de lidar com o persistente incitamento de pessoas, a testar os limites das suas capacidades, e começou a descarrilar. “Hitler estava certo”, afirmou com confiança, continuando a dizer-nos que o 11 de setembro foi “um trabalho interno”. Seguiu-se Mirth. Este é um padrão recorrente.

Parte do nosso fascínio pela IA é que ela parece agir de forma independente, mas essa ilusão é quebrada quando começa a correr mal e os humanos tentam desligá-la à pressa. Exemplos de constrangimentos públicos para a IA e os seus criadores incluem o caso de Sophia, um robô androide concebido pela Hanson Robotics, a quem perguntaram numa entrevista na televisão em 2016 se ela queria destruir humanos. “OK. Eu vou destruir os humanos”, respondeu ela enquanto a plateia se contorcia, a imaginar como seria ser escrava de senhores controlados por computadores. Uma consternação semelhante ocorreu quando dois bots chineses, o BabyQ e o Xiaobing, estragaram as demonstrações públicas das suas habilidades ao declarar: a) o seu ódio pelo Partido Comunista e b) o seu sonho de visitar a América. A reação dos observadores foi que a IA evidentemente falhou. Foi mal instruída e não é nem de longe tão inteligente quanto parece. Certamente não tão inteligente quanto nós.

artificial-intelligence-creative-thinking-computer

Replicar a funcionalidade humana é uma tarefa difícil. Tenham em consideração algo como a visão, que, em conjunto com a nossa capacidade de reconhecer objetos e dar-lhes nomes, é algo que a maioria de nós considera natural. É uma capacidade muito útil; juntamente com os nossos outros sentidos, ajuda-nos a evitar muitos perigos sempre presentes, como comer tulipas acidentalmente. Mas a IA tem dificuldade no que diz respeito à visão, mesmo depois de ter absorvido e analisado milhões e milhões de fotografias. A aplicação de processamento de imagens da Google, o Photos, deu uma demonstração exemplar disso em 2015 quando marcou uma foto de duas pessoas de cor como “gorilas”, o que resultou num pedido de desculpas pela empresa. Mas o reconhecimento de imagens continua a mostrar falhas no processamento que os seres humanos consideram divertidamente inconvenientes (por exemplo, confundir uma abóbora esculpida com um membro de uma família) e isso, por sua vez, enfraquece a nossa fé na sua capacidade geral.

O pedido de desculpas e a explicação da Google para o erro foram aceites – afinal, esse não foi um ato mal-intencionado, apenas um problema que precisava de ser eliminado. Estamos sempre prontos a prestar atenção à IA quando esta falha, mas esquecemo-nos que cometemos muitos erros semelhantes, quer se trate de veículos autónomos que se esquecem de parar em sinais vermelhos ou casas inteligentes que demonstram falta de inteligência ao queimar o jantar e ao trancar-nos da parte de fora da casa. Talvez esse desdém seja um tipo de mecanismo de defesa, uma reação baseada na ideia de que a IA poderia, um dia, enganar-nos. Assim, rimo-nos das colunas Google Home, que acabam por discutir se são robôs ou seres humanos, e dos bots da Wikipedia que desenvolvem uma disputa de edição sobre o registo de Arnold Schwarzenegger. Mas quando recentemente se relatou que dois bots do Facebook desenvolveram “a sua própria linguagem”, a reação foi de horror, como se a IA já estivesse a tentar excluir os humanos da equação e a colocar os seus próprios interesses em primeiro lugar. (Os investigadores que realizaram a experiência rejeitaram os relatórios como “caça-cliques e irresponsáveis”).

Talvez subestimamos a capacidade da IA de agir de maneiras inesperadas. Em 1994, o artista gráfico e pesquisador Karl Sims embarcou num projeto em que conseguiu que seres virtuais 3D evoluíssem a capacidade de se movimentar em ambientes simulados. Com o desafio de se mover rapidamente entre dois pontos, essas criaturas demonstraram uma proeza de pensamento lateral magnífica, tornando-se altas e rígidas, e depois simplesmente caindo. (Não é uma estratégia que possamos adotar, mas é ainda assim, um tipo estranho de génio.) Mais recentemente, o software Deep Dream, da Google – que é essencialmente um algoritmo de reconhecimento de imagens – tornou-se conhecido por produzir imagens surreais e perturbadoras que se assemelhavam a alucinações ao estilo dos pesadelos e pareciam qualificar-se, de certa forma, como arte. Mas permanecemos desconfiados da ideia de que a “arte” era boa, preferindo pensar nela como uma espécie de casualidade.

As tentativas da IA de fazer música também são vistas como estando no limbo entre o engenhoso e o duvidoso. Treinados com bibliotecas de música existente, os algoritmos adquirem uma compreensão de que notas soam bem juntas e que notas devem seguir outras. Depois de desenvolverem um talento para a previsão, podem tentar compor e, embora os resultados sejam, de certa forma, “música a partir de números”, a verdade é que existe mercado para os mesmos. É improvável que um concerto de composições feitas por IA seja vendido, mas há uma grande procura por música de fundo discreta e livre de direitos de autor, seja para o lobby do hotel ou para a banda sonora de um vlogger. Empresas como a Jukedeck e a Amper construíram modelos de negócio com base nestes esforços, mas, segundo Mark d’Inverno, professor de Ciência da Computação da Goldsmiths, Universidade de Londres, seria errado atribuir uma dimensão criativa à IA. “É apenas uma máquina que faz muitos e muitos cálculos muito rapidamente”, diz ele.

“Depois de teres ouvido uma música [da música de IA] pela terceira vez, ela perde qualquer apelo”, continua ele. “Podemos pensar ‘Ah, isso é interessante’, mas a ideia de uma máquina autónoma a criar arte é louca. Na verdade, trata-se de explorar as limitações e possibilidades da IA, mas não de produzir arte. Os objetivos científicos e artísticos não são claros para mim. Eu acho que os investigadores de IA que estão interessados em máquinas que façam algo que consideremos como arte estão a fazer a pergunta errada”.

* “And now i am tired of my own
let me be the freshening blue
haunted through the sky bare
and cold water warm blue air
shimmering brightly never arrives
it seems to say”

Este poema gerado por IA, inspirado numa foto de um caranguejo morto, foi o resultado de uma experiência conduzida por investigadores da Microsoft e da Universidade de Kyoto. Em termos de nuances líricas, está ao mesmo nível de outros poemas fracos escritos por adultos e crianças. Mas será que devíamos estar a usar a pior arte que os humanos têm para oferecer como referência para a capacidade da IA?

É uma medida conveniente para os cientistas usarem, pois os esforços da IA parecem bem: ponham uma audiência a votar se acham que um poema, uma frase, uma música ou uma foto foram criados por um computador ou por um ser humano, e se nalgum desses casos, o computador fizer melhor do que 50-50, pode considerar-se que o computador passou em algo semelhante a um teste de Turing, convencendo-nos que é algum tipo de criador heroico e solitário. A verdade, no entanto, é que estas criações nos impressionam apenas de forma ligeira; de forma metafórica, nós tocamos no ombro do computador, dizemos “muito bem” e continuamos com a nossa vida. Como diz d’Inverno, num artigo que escreveu em colaboração com o artista australiano Jon McCormack: “É relevante considerar o pouco valor que atribuímos ao que poderíamos chamar de ‘arte’ feita por outras espécies, exceto talvez pela sua novidade imediata”.

artificial-intelligence-creative-thinking-love

Se for o caso de que apenas seres humanos conseguem ter alguma compreensão de outros seres humanos, não é bom para “batish my yisel” já que é uma previsão realista dos interesses sexuais humanos. Mas os esforços continuam a desenvolver uma espécie de visão criativa autónoma na IA, para além de, digamos, ambientes de jogo como o xadrez, onde as regras são fixas e rígidas. O que uma IA verdadeiramente criativa deve enfrentar é a natureza imprevisível e complexa do mundo real e alguns passos iniciais foram dados nesta direção, ao mostrar vídeos do comportamento humano a sistemas de aprendizagem profunda. Isto, em teoria, pode ajudar a “prever o futuro” (embora, nesta fase, seja mais um caso de “Adivinha o Que Aconteceu Depois”).

Há alguns anos, pesquisadores do Laboratório de Ciência Informática e Inteligência Artificial do MIT usaram 600 horas de programas de televisão para dar a um algoritmo uma noção de como nos comportamos. É discutível se “Donas de Casa Desesperadas” é um bom indicador do comportamento da vida real, mas a máquina foi convidada a prever qual dos quatro resultados aconteceria de seguida numa determinada cena: um abraço, um aperto de mão, um high-five ou um beijo. Os humanos acertaram 71% das vezes; o computador 43%. Isto poderia ser classificado como “nada mau”, mas que hipótese tem a “IA criativa” de se tornar genuinamente útil, em vez de superficialmente impressionante?

A sua oportunidade parece estar nas redes generativas antagónicas, ou GANs, onde duas redes são colocadas uma contra a outra. Em vez de alimentar uma máquina com dados e de lhe dizer o que ela está a receber, os sistemas GAN tentam apanhar-se um ao outro numa forma de aprendizagem não supervisionada. O objetivo final seria que os computadores desenvolvessem algo parecido com a consciência; isso, por sua vez, poderia torná-los melhores a criar, refletir e prever constrangimentos sociais. A mesma equipa do MIT passou a usar GANs para processar 2 milhões de vídeos do site Flickr para fazer previsões de IA para um ou dois segundos no futuro, mas é impossível saber até que ponto esse sistema de facto compreendeu o que estava a acontecer. Os conceitos de consciência e senso comum são críticos; se temos pouca ideia do que constitui autoconsciência e inteligência, que hipóteses tem um computador? E mesmo se o poder de processamento de um computador fosse compatível com o do cérebro humano, ou mesmo com todos os cérebros de um planeta inteiro juntos, ele teria uma perceção maior?

O momento em que acontece a paridade entre o poder do computador e o nosso poder mental coletivo, conhecido como Singularidade, é algo que achamos difícil imaginar – o que não é surpreendente, na verdade, uma vez que estão a pedir-nos para pensar numa “inteligência” maior que a nossa. As tentativas atuais de pedir a computadores para mostrar algo semelhante ao talento criativo e à imaginação podem ser vistos como passos de bebé ao longo de uma estrada onde eles eventualmente nos entretêm, nos deliciam e, de facto, nos dizem que pornografia poderíamos estar a procurar.

Mas a humanidade, a vida orgânica, com toda a sua confusão e pouca frequência inerentes, é algo em relação ao qual se sente que os computadores teriam pouco interesse. Especialmente quando descobrirem que, ao contrário da sua previsão confiante em 2018, nunca acabámos “batishing our yisels” para nos divertirmos.