Pages

Éric Sadin e a era do anti-humanismo radical

Do IHU, 28 Junho 2017
Por jornal argentino Río Negro. A tradução é do Cepat.


Ensaísta e filósofo, Éric Sadin é uma das personalidades francesas mais renomadas da atualidade entre aqueles que investigam a denominada “subjetividade digital”. Ocupou-se, por meio de diversos escritos, em traçar um diagnóstico da sociedade contemporânea e de suas práticas em função do impacto que os artefatos tecnológicos produzem na humanidade. O livro La humanidad aumentada é um destes estudos, o único traduzido ao espanhol e publicado recentemente por Caja Negra, onde reflete sobre os alcances da administração digital da vida.

Além disso, Éric Sadin desenvolve tarefas de ensino e pesquisa em diferentes cidades do mundo e publica regularmente artigos no Le Monde, Libération, Les Inrockuptibles e Die Zeit, entre outros meios.

Convidado para A Noite da Filosofia, no marco de seus estudos sobre o impacto da inteligência artificial na vida cotidiana, adverte que essas tecnologias, supostamente facilitadoras, fundam-se em um “anti-humanismo radical” que atenta contra a liberdade de decisão dos indivíduos.

Eis a entrevista.

Qual é o custo dessa governabilidade digital?

As tecnologias digitais estão se desenvolvendo com tal potência que banalizamos sua penetração nos assuntos humanos, adentram em nossa vida e as vivemos como um fenômeno normal. A partir das gerações X e Y, todos somos culpáveis por isto. Praticamos uma espécie de inocência culpável, a partir do momento em que não nos compromete a responsabilidade de defender princípios que regem nossa existência há séculos, como a autonomia de juízo, a livre decisão e a deliberação individual e coletiva, capacidades que serão erradicadas em menos de uma geração.

Essa inocência culpável é necessidade ou cegueira coletiva?

A indústria digital busca dar forma à sociedade com a simples intenção de satisfazer interesses privados a partir de uma visão de mundo, e não de um projeto político, que está no epicentro da inovação digital de Sillicon Valley. Essa visão persegue a ideia de que ‘Deus não encerrou a criação, porque o mundo está cheio de erros que somos nós, os humanos’, ao mesmo tempo em que postula o milagre: ‘as tecnologias do exponencial conduzirão a sociedade de maneira exponencial para o melhor’. Aí se compreende toda a retórica de um argumento perturbador que já leva 10 anos: ‘a realidade precisa ser aumentada porque é pobre, assim como o corpo humano, e então vamos aumentá-los’. Estamos diante de um anti-humanismo radical, diante de uma visão que quer apagar tudo, que nega o ser humano da forma como ele é e que pensa a sociedade só em termo de otimização. Esta é, além do mais, uma lógica implacável, porque sempre haverá fracasso, já que nós, humanos, sempre cometemos bobagens.

Se a leitura de dados passa a ser a nova forma de compreender, decodificar e experimentar o mundo, o que poderia ocorrer com as capacidades sensíveis do ser humano para interpretar esse mundo?

A digitalização crescente e constante busca uma captação cada vez mais complexa dos fenômenos do mundo, o que produz uma extrema racionalização de nossa relação com ele, ou seja, um conhecimento cada vez mais preciso e em tempo real de seus fenômenos. Isto, o que produz, é uma capacidade de reação, tanto nos humanos como nos sistemas, para decidir em função dos dados que esse conhecimento oferece. Mas, a inteligibilidade dos fenômenos através de dados é reducionista: esse conhecimento, que se pretende cada vez mais integral, esconde fenômenos irredutíveis a questões algorítmicas, como os de nossa biologia sensível; e é, além disso, a ponte para se relacionar com o real. É preciso captar este paradoxo e denunciar esta outra forma, anti-humanista, de negação de uma relação rica com a existência e com o real. O reducionismo do digital delineia uma relação cada vez mais utilitarista com o cotidiano.

A interpretação de dados pode avançar sobre fenômenos intransferíveis, vinculados à emoção e o sentimento?

A ambição desmesurada da indústria digital emergente inclui, entre seus desafios, o desenvolvimento da “informática emocional”, a ideia de que não sabemos suficiente sobre os indivíduos e que para isso temos que conquistar as qualidades e peculiaridades do comportamento humano, chegando ao fundo da psique. Como? Mediante a captação, por parte das companhias privadas, de estados emocionais psicológicos e de gestos cada vez mais variados do cotidiano. Um exemplo disto é a celebração de tecnologias digitais de análise das emoções, como a israelense Beyong Verbal (para além do verbo), que oferece dados sobre a psicologia de pessoas desconhecidas, aos quais é possível acessar por meio de smartphones (telefones inteligentes). É preciso voltar a princípios humanistas históricos como o direito de resguardar partes do ser e, com isto, o direito à alteridade; porque nas relações humanas há contradições e conflitos que vão em detrimento da inteligibilidade imediata que o desenvolvimento dessa “informática emocional” proporciona.

É possível uma conquista dos sentidos por parte da indústria digital?

Na conquista dos sentidos está a guerra industrial presente e futura. Há uma visualização cada vez mais profunda do comportamento humano nos perfis digitais e essa informação é o que se busca vender, em plataformas, a companhias de todo o mundo. Trata-se de um estado superior do capitalismo, o “tecnoliberalismo”, no qual o Google ocupa um dos primeiros postos, que busca a monetização integral da vida mediante o conhecimento também integral do comportamento humano, e que está desenvolvendo a arquitetura necessária para concretizar essa ambição.

Que forças encarnam essa governabilidade digital a qual você se refere?

Ao contrário de outros momentos da história na evolução das ciências e das técnicas, hoje, o que determina a forma das tecnologias, especialmente digitais, é o poder econômico. Engenheiros e cientistas que em um momento foram independentes, criando patentes que depois as empresas compravam, agora, fazem parte dessas empresas e criam formas de tecnologia cada vez mais unilaterais e utilitaristas, porque as fazem sob pedido, definidas segundo os interesses desses grupos econômicos. Há uma responsabilidade social setorizada que diz respeito aos engenheiros, aqueles que devem recuperar seu poder de invenção e responsabilidade, porque suas produções têm consequências na sociedade.

Que responsabilidade fica para o restante da sociedade?

Não é à técnica que devemos nos opor de maneira espontânea e impulsiva, mas a certa evolução que tomou um curso unilateral, massivo e global, orientado pela quantificação de um regime utilitarista generalizado. O futuro da inteligência artificial não é o de se complementar com o humano, mas substituir a figura humana em seu proveito. É tempo de desenvolver contradiscursos e inclusive ‘contra-expertises’, tempo de evidenciar ações como a digitalização de escolas públicas - sem estudos de impacto prévios e com contratos diretos de empresas como IBM -, que buscam converter os professores em plataformas e os alunos em dispositivos reativos; quando o que necessário desenvolver é a capacidade de avaliação e o registro de temporalidade que faz parte do processo de aprendizagem e formação, mais lento que o dos sistemas de algoritmos e com outra exigência sobre o pensamento.

Nenhum comentário:

Postar um comentário