Abstract
Argumenta-se contra a personalização de agentes de inteligência artificial (IA) generativas baseadas em modelos de linguagem natural tais como ChatGPT e Bard. Propõe-se que projetar “humanidade” nesse tipo de artefato é uma forma de apego antropocêntrico improdutivo educacionalmente; sugere-se, como alternativa, o modelo da assemblagem cognitiva (novo inconsciente) de Katherine Hayles, no qual cognições técnicas (não-conscientes) produzem modos de atenção-reconhecimento que têm agencia moral e política, mas não se confundem com consciências humanas. Explica-se a projeção de uma teoria da mente no artefato a partir do arcabouço da pós-fenomomenlogia e adverte-se que nem demonizar a inteligência artificial, nem tratar esses simulacros como inteligências de facto, “empodera” o humano, mas apenas reencena versões progressivamente mais reducionistas do humano idealizado do humanismo. Urge que se utilieze de forma mais transparente as articulações entre consciência e modos não-humanos de atenção-reconhecimento para que tanto estudantes IAs não se tornem cada vez menos “inteligentes”.
Cite
CITATION STYLE
Buzato, M. E. K. (2023). Inteligência artificial, pós-humanismo e Educação: entre o simulacro e a assemblagem. Dialogia, (44), 1–11. https://doi.org/10.5585/44.2023.23906
Register to see more suggestions
Mendeley helps you to discover research relevant for your work.