Início|Mundo|ChatGPT, valor e conhecimento

ChatGPT, valor e conhecimento

-

Por Guglielmo Carchedi em 06 de junho de 2023

ChatGPT, valor e conhecimento

 

Num comentário ao post no blog de Michael Roberts acerca da inteligência artificial (IA) e das novas máquinas de aprendizagem de idiomas (LLMs), o autor e comentador Jack Rasmus levantou algumas questões pertinentes, às quais senti-me obrigado a abordar.

Jack disse: “será que a análise de Marx da maquinaria e a sua visão de que maquinaria é valor-trabalho congelado que é transferido para a mercadoria à medida em que esta se deprecia aplica-se completamente às máquinas com base em software de AI que têm a capacidade crescente de se auto-manter e atualizar o seu próprio código sem a intervenção do trabalho humano – ou seja, de não se depreciarem?”

Minha resposta para a questão legítima de Jack pressupõe o desenvolvimento de uma epistemologia marxista (uma teoria do conhecimento), uma área de investigação que tem permanecido relativamente inexplorada e subdesenvolvida.

Na minha ótica, uma das características chave de uma abordagem marxista é fazer uma distinção entre ‘produção objetiva’ (a produção de coisas objetivas) e ‘produção mental’ (a produção de conhecimento). Ainda mais importante, o conhecimento deveria ser encarado como material, não como imaterial, nem como um reflexo da realidade material. Isto nos permite distinguir entre meios de produção (MP) objetivos e MP mentais; ambos são materiais. Marx concentrou-se principalmente, mas não exclusivamente, sobre os primeiros. No entanto, nos seus trabalhos há muitas pistas de como deveríamos entender o conhecimento.

Uma máquina é um MP objetivo; o conhecimento nela incorporado (ou desincorporado) é um MP mental. Assim, a IA (incluindo o ChatGPT) deveria ser encarado como um MP mental. Na minha ótica, uma vez que o conhecimento é material, os MP mentais são tanto MP materiais como objetivos. Assim, os MP mentais têm valor e produzem valor excedente se eles forem o resultado trabalho mental humano realizado para o capital. Portanto a IA tem trabalho humano envolvido. Só que é trabalho mental.

Tal como os MP objetivos, os MP mentais são [instrumentos] de aumento da produtividade e de redução do trabalho. Seu valor pode ser medido em horas de trabalho. A produtividade dos MP mentais pode ser medida, por exemplo, pelo número de vezes que o ChatGPT é vendido ou descarregado ou aplicado a processos de trabalho mental. Como MP objetivo, seu valor aumenta quando melhorias (conhecimento adicional) lhes são acrescentadas (pelo trabalho humano) e diminui devido ao uso e desgaste. Assim, o MP mental (IA) não só se deprecia como também assim o faz a um ritmo muito rápido. Isto é depreciação devido à competição tecnológica (obsolescência), ao invés da depreciação física. E, como MP objetivo, a sua produtividade afetará a redistribuição do valor excedente (surplus). Na medida em que modelos mais novos de ChatGPT substituam os mais velhos, devido aos diferenciais de produtividade e aos seus efeitos sobre a redistribuição do valor excedente (teoria do preço de Marx), os modelos mais velhos perdem valor para o mais novos e mais produtivos.

Jack pergunta: “Será esta capacidade baseada no trabalho humano ou não? Se não, o que é um “não” significa para o conceito chave de Marx da composição orgânica do capital e, em contrapartida, para a seu (de MR e minha, GC) muitas vezes declarado endosso à hipótese da queda da taxa de lucro?”

Minha resposta à pergunta acima tem sido que esta “capacidade” é na verdade baseada não só no trabalho (mental) humano, mas é trabalho humano. A partir desta perspectiva, não há problema com o conceito de Marx da composição orgânica do capital (C). Uma vez que a IA e portanto o ChatGPT são novas formas de conhecimento, de MP mental, o numerador de C é a soma do MP objetivo mais o MP mental. O denominador é a soma do capital variável gasto em ambos os sectores. Assim, a taxa de lucro é valor excedente gerado em ambos os sectores dividido por (a) a soma dos MP em ambos os sectores mais (b) o capital variável gasto também em ambos os sectores. Portanto a lei da queda tendencial da taxa de lucro fica inalterada pelo MP mental, ao contrário da sugestão de Jack.

Para melhor entender os pontos acima precisamos desvendar e desenvolver a implícita teoria do conhecimento de Marx. É o que se segue nos parágrafos seguintes, embora numa versão extremamente sucinta.

Considere-se os primeiros computadores clássicos. Eles transformavam conhecimento com base na lógica formal, ou lógica Booleana ou álgebra, a qual exclui a possibilidade de a mesma afirmação ser tanto verdadeira como falsa ao mesmo tempo. A lógica formal e portanto os computadores excluíam contradições. Se eles pudessem percebê-los, seriam erros lógicos. O mesmo se aplica aos computadores quânticos.

Por outras palavras, a lógica formal explica processos de trabalho mental pré-determinados (em que o resultado do processo é conhecido de antemão e portanto não contraditório com o conhecimento que entra nesse processo processo de trabalho), mas exclui processos de trabalho mental abertos (onde o resultado emerge como algo novo, ainda não conhecido). Um processo aberto usa uma reserva de conhecimento potencial, informe, que tem uma natureza contraditória devido à natureza contraditória dos elementos nele sedimentados. Ao contrário da lógica formal, a lógica aberta está baseada em contradições, incluindo a contradição entre os aspetos potenciais e realizados do conhecimento. Esta é a fonte das contradições entre os aspetos da realidade, incluindo os elementos do conhecimento.

Voltando ao exemplo anterior, para processos de trabalho mental abertos, A=A e também A¹A. Não há contradição aqui. A=A porque A, enquanto entidade realizada, é igual a si próprio por definição; mas A¹A porque o A realizado pode ser contraditório com o A potencial. Esta é a natureza da mudança, algo que a lógica formal não pode explicar.

Isto aplica-se também à Inteligência Artificial (IA). Tal como os computadores, a IA funciona com base na lógica formal. Por exemplo, quando se pergunta se A=A e ao mesmo tempo pode ser A ¹ A, o Chat GPT responde negativamente. Uma vez que funciona com base na lógica formal, a IA não dispõe de um reservatório de conhecimento potencial a partir do qual possa extrair mais conhecimento. Não pode conceber contradições porque não pode conceber o potencial. Estas contradições são o húmus do pensamento criativo, ou seja, da geração de novos conhecimentos, ainda desconhecidos. A IA só pode recombinar, selecionar e duplicar formas de conhecimento já realizadas. Em tarefas como a visão, o reconhecimento de imagens, o raciocínio, a compreensão da leitura e o jogo, podem ter um desempenho muito melhor do que os humanos. Mas não podem gerar novos conhecimentos.

Considere-se o reconhecimento facial, uma técnica que compara uma fotografia individual com uma base de dados de faces conhecidas para descobrir uma correspondência. A base de dados consiste de um certo número de faces conhecidas. A descoberta de uma correspondência seleciona uma já realizada, isto é, uma face já conhecia. Não há geração de novo conhecimento (novas faces). O reconhecimento facial pode encontrar uma correspondência muito mais rapidamente do que um humano. Ela torna o trabalho humano mais produtivo. Mas seleção não é criação. Seleção é um processo mental pré-determinado; criação é um processo mental aberto.

Tome-se outro exemplo. O ChatGPT pareceria emular a escrita criativa humana. Realmente ele não o faz. Ele obtém o seu conhecimento de uma grande quantidade de dados de texto (os objetos da produção mental). Os textos são divididos em peças mais pequenas, frases, palavras ou sílabas, os assim chamados símbolos (tokens). Quando o ChatGPT escreve uma peça, não escolhe o próximo token de acordo com a lógica do argumento (como fazem os humanos). Em vez disso, ele escolhe o token seguinte de acordo com a lógica do argumento (como fazem os humanos). Ao invés, escolhe o token mais provável. O resultado da escrita é uma cadeia de símbolos montada com base na combinação estatisticamente mais provável. Trata-se de uma seleção e recombinação de elementos de conhecimento já realizados, não da criação de conhecimento novo.

Como Chomsky et al. (2023) colocaram: “A IA toma enormes quantidades de dados, investiga padrões nos mesmos e torna-se cada vez mais proficiente em gerar resultados estatisticamente prováveis – tais como linguagem e pensamento aparentemente como o dos humanos… O ChatGPT meramente sumariza os argumentos padrão na literatura”.

Poderia acontecer que o ChatGPT produzisse um texto que nunca fora pensado por humanos. Mas isto ainda assim seria um sumário e o re-trabalhar de dados já conhecidos. Nenhuma escrita criativa poderia emergir disto porque novo conhecimento realizado pode emergir só das contradições inerentes em potencial de conhecimento.

Morozov (2023) proporciona um exemplo relevante: “A obra de arte Fountain, de 1917, de Marcel Duchamp. Antes da peça de Duchamp, um mictório era apenas um mictório. Mas, com uma mudança de perspectiva, Duchamp transformou-o numa obra de arte. Quando lhe perguntaram o que tinham em comum o porta-garrafas de Duchamp, a pá de neve e o urinol, Chat GPT respondeu corretamente que eram todos objetos do quotidiano que Duchamp transformou em arte. Quando perguntaram o que porta-garrafas, a pá de neve e o mictório de Duchamp tinham em comum, o ChatGPT respondeu corretamente que eram objetos corrente que Duchamp poderia transformar em arte. Mas quando perguntado quais objetos de hoje Duchamp poderia transformar em arte, sugeriu smartphones, trotinetas eletrónicas e máscaras faciais. Não há aqui qualquer indício de uma verdadeira “inteligência”. É uma máquina estatística bem gerida mas previsível”.

Marx proporciona o quadro teórico adequado para a compreensão do conhecimento. Os seres humanos, para além de serem indivíduos concretos únicos, são também portadores de relações sociais, enquanto indivíduos abstratos. Enquanto indivíduos abstratos, “humanos” é uma designação geral que oblitera as diferenças entre indivíduos, todos eles com interesses e visões do mundo diferentes. Mesmo que as máquinas (computadores) pudessem pensar, não poderiam pensar como seres humanos determinados por classes, com concepções diferentes sobre o que é verdadeiro e falso, certo ou errado. Acreditar que os computadores são capazes de pensamento humano não é apenas errado; é também uma ideologia pró-capital, porque isso é ser cego ao conteúdo de classe do conhecimento armazenado na força de trabalho e, portanto, às contradições inerentes à geração de conhecimento.

Para mais acerca da teoria marxista do conhecimento e sua relação com a lei do valor de Marx, ver meu artigo recente, The Ontology and Social Dimension of Knowledge: The Internet Quanta Time, International Critical Thought, 2022 e o nosso livro, Capitalism in the 21st century, capítulo cinco.

Últimas Notícias