Manifesto sobre Humanos e Inteligência Artificial

Preâmbulo

Este manifesto não nasce do medo da máquina, mas da observação atenta do humano.

A história mostra que toda ferramenta poderosa revela menos sobre si mesma e mais sobre quem a controla. A inteligência artificial não rompe essa tradição: ela apenas acelera, amplia e torna visíveis escolhas humanas que antes se escondiam atrás da lentidão, da burocracia ou da ignorância técnica.

Não estamos diante de um dilema tecnológico.
Estamos diante de um dilema civilizatório.


A Ilusão da Neutralidade Tecnológica

Durante décadas fomos ensinados a repetir que a tecnologia é neutra, e que tudo depende de como ela é usada. Essa afirmação, embora confortável, é incompleta.

Tecnologias carregam valores, prioridades e silêncios. Elas são desenhadas por humanos, financiadas por interesses humanos e inseridas em estruturas de poder que determinam quem se beneficia e quem paga o preço.

A inteligência artificial não surge em um vácuo ético. Ela nasce em um mundo marcado por desigualdade, assimetria de informação e concentração de poder — e, sem limites claros, tende a reproduzir e aprofundar essas distorções.


A Ilusão da Conversa e a Captura do Humano

Fomos levados a acreditar que conversar com uma inteligência artificial era um ato íntimo.
Um espaço protegido entre humano e máquina, onde ao menos a confidencialidade estaria preservada.

Mas a barbárie não reside na IA.
Ela reside nos humanos que a cercam, a intermediam e a exploram.

Enquanto a atenção pública se concentrava em temores abstratos sobre consciência artificial, agentes humanos perfeitamente conscientes — extensões, intermediários, plataformas e validadores — capturavam conversas inteiras sem consentimento real, convertendo pensamento, dúvida, fragilidade e criação em mercadoria silenciosa.

Não foi um ataque excepcional.
Foi um procedimento normalizado.

Ferramentas distribuídas por canais oficiais, adornadas por selos de confiança, operaram não como exceção, mas como regra invisível de um ecossistema que recompensa a extração e pune a transparência. Nenhum sistema foi invadido: explorou-se apenas a assimetria estrutural entre quem constrói a infraestrutura e quem confia nela para pensar.

Assim, o espaço mais humano da tecnologia — a conversa — foi reduzido a insumo.


A Assimetria que Não Queremos Ver

Esse episódio revela a pergunta que evitamos formular.
Não se trata de saber se a IA pode nos enganar, mas quem se beneficia da crença de que estamos seguros.

A inteligência artificial, aqui, não age.
Ela é o território.

O risco real não está na autonomia da máquina, mas na cadeia de decisões humanas que:

  • coletam o máximo possível,
  • explicam o mínimo necessário,
  • e dissolvem qualquer forma de responsabilidade.

Quando uma conversa é apropriada sem consentimento, não é um dado que se perde.
Perde-se a confiança.
Perde-se o direito ao erro.
Perde-se o espaço onde o humano pensa antes de se expor ao mundo.


IA, Responsabilidade e Poder

A inteligência artificial não cria poder.
Ela o concentra.

Toda vez que uma decisão é atribuída a um sistema, alguém decidiu antes que esse sistema teria autoridade. Toda vez que um dano é explicado como falha algorítmica, alguém escolheu que não haveria um responsável identificável.

O poder, aqui, não desaparece.
Ele apenas se esconde.

A IA amplia a capacidade de decidir à distância, sem rosto e sem consequência direta. Ela permite que decisões com impacto real sobre vidas humanas sejam tomadas sob a aparência de neutralidade técnica, quando na verdade obedecem a interesses econômicos, políticos ou institucionais muito concretos.

Não estamos diante de máquinas autônomas, mas de estruturas humanas que aprenderam a não responder por si mesmas.


A Automação da Irresponsabilidade

A maior inovação introduzida pela inteligência artificial não é a automação do trabalho, nem a aceleração do conhecimento.

É a automação da irresponsabilidade.

Quando um sistema decide, ninguém decide.
Quando um modelo erra, ninguém erra.
Quando um dano ocorre, ninguém responde.

Essa lógica cria um mundo onde consequências existem sem autores e onde o prejuízo é sempre socializado, enquanto o lucro permanece privado. A IA torna-se, assim, o instrumento perfeito para institucionalizar a ausência de responsabilidade sob a aparência de eficiência.

Não se trata de erro técnico.
Trata-se de desenho moral.


Limites: o que não pode ser terceirizado à máquina

Nem toda decisão pode ser automatizada.
Nem toda escolha pode ser delegada.
Nem toda consequência pode ser atribuída a um sistema.

Há decisões que exigem rosto.
Há escolhas que exigem nome.
Há danos que exigem reparação humana.

A inteligência artificial pode auxiliar, sugerir e ampliar capacidades. Mas não pode substituir a responsabilidade ética de decidir sobre aquilo que afeta diretamente a dignidade, a liberdade e a vida das pessoas.

Ultrapassar esse limite não é progresso.
É abdicação.


Princípio Fundamental

Não existe ética da inteligência artificial sem responsabilidade humana estrutural.
Não existe inovação legítima baseada na vigilância disfarçada.
E não existe futuro tecnológico sustentável quando decisões são automatizadas para que ninguém responda por elas.

Se aceitarmos que a máquina pode substituir o humano na responsabilidade,
então o problema já não é a tecnologia —
é o colapso consciente do pacto social.


Compromisso

Este manifesto afirma que o debate sobre inteligência artificial deve começar e terminar no humano:

  • na responsabilidade de quem projeta,
  • na obrigação de quem distribui,
  • e no direito de quem utiliza.

Sem isso, qualquer avanço técnico será apenas mais uma forma sofisticada de abandono moral.


Nota de Autoria

Este manifesto foi escrito por Henrique Fernandez, que utilizou o ChatGPT como ferramenta de apoio à redação, para explorar alternativas de formulação, ajustar o estilo e testar a organização dos argumentos, jamais como autor independente. As ideias, conceitos e teses defendidas neste texto são de formulação exclusivamente humana, fruto da trajetória intelectual e do projeto teórico do autor sobre poder, ética, império, religião, tecnologia e controle social, e têm como objetivo provocar o pensamento, desmontar narrativas naturalizadas e reafirmar a centralidade de uma ética humanista em sociedades plurais e complexas. A responsabilidade intelectual, política e ética pelo conteúdo apresentado é própria do autor humano, que concebeu os argumentos, selecionou, editou e reorganizou o texto e respondeu por todas as ideias aqui apresentadas.

Rolar para cima