Banner Portal
Automatismo ayer y hoy
PDF (Português (Brasil))

Palabras clave

Inteligencia artificial
Automatismo
Gilbert Simondon

Cómo citar

GONÇALVES, Rafael. Automatismo ayer y hoy: reflexiones sobre los límites de la inteligencia artificial a partir de Simondon. Ideias, Campinas, SP, v. 13, n. 00, p. e022008, 2022. DOI: 10.20396/ideias.v13i00.8668218. Disponível em: https://periodicos.sbu.unicamp.br/ojs/index.php/ideias/article/view/8668218. Acesso em: 31 ago. 2024.

Resumen

Con la creciente popularidad de las técnicas de inteligencia artificial, las cuestiones relativas a las capacidades y limitaciones de estas tecnologías ganan notoriedad. Este trabajo propone que, como formas contemporáneas de automatismo, estas tecnologías comparten semejanzas con las analizadas por la filosofía de la técnica de Gilbert Simondon y que, por eso, su pensamiento sería de gran valor para reflexionar sobre ellas. Partiendo principalmente de la "Nota complementaria sobre las consecuencias de la noción de individuación", y tomando el algoritmo red neuronal artificial como ejemplo, el artículo presenta tres momentos en que la inteligencia artificial presentaría una limitación en relación a su estructura fijada por el humano inventor: en los datos de entrada, en el entrenamiento del modelo y en la representación final del conocimiento supuestamente aprendido. El artículo concluye con un breve análisis de las consecuencias del uso extensivo de tecnologías inteligentes a la luz de las limitaciones presentadas.

https://doi.org/10.20396/ideias.v13i00.8668218
PDF (Português (Brasil))

Citas

ANGWIN, J. et al. Machine Bias: There’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica, 23 maio 2016. Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Acesso em: 21 abr. 2022.

CRAWFORD, K.; PAGLEN, T. Excavating AI: The politics of images in machine learning training sets. The AI Now Institute, NYU, 19 set. 2019. Disponível em: https://excavating.ai/. Acesso em: 21 abr. 2022.

ELISH, M. C.; BOYD, DANAH. Situating methods in the magic of Big Data and AI. Communication Monographs, v. 85, n. 1, p. 57–80, 2 jan. 2018.

GOODFELLOW, I.; BENGIO, Y.; COURVILLE, A. Deep Learning. [s.l.] MIT Press, 2016. Disponível em: https://www.deeplearningbook.org/. Acesso em: 21 abr. 2022.

LECUN, Y.; BENGIO, Y.; HINTON, G. Deep learning. Nature, v. 521, n. 7553, p. 436–444, maio 2015.

PASQUINELLI, M.; JOLER, V. The Nooscope manifested: artificial intelligence as instrument of knowledge extractivism. AI & SOCIETY, v. 36, n. 4, p. 1263–1280, 2021.

PRATES, M. O. R.; AVELAR, P. H.; LAMB, L. C. Assessing gender bias in machine translation: a case study with Google Translate. Neural Computing and Applications, v. 32, n. 10, p. 6363–6381, maio 2020.

ROUVROY, A.; BERNS, T. Governamentalidade algorítmica e perspectivas de emancipação: o díspar como condição de individuação pela relação? Revista ECO-Pós, v. 18, n. 2, p. 36–56, 2015.

SEARLE, J. R. Minds, brains, and programs. Behavioral and Brain Sciences, v. 3, n. 3, p. 417–424, 1980.

SILVA, T. Racismo algorítmico em plataformas digitais: microagressões e discriminação em código. In: SILVA, T. (Org.). Comunidades, algoritmos e ativismos digitais: Olhares afrodiaspóricos. 1. ed. São Paulo: LiteraRUA, 2020. p. 121–137.

SIMONDON, G. Do modo de existência dos objetos técnicos. Tradução: Vera Ribeiro. 1. ed. Rio de Janeiro: Editora Contraponto, 2020a.

SIMONDON, G. Nota complementar sobre as consequências da noção de individuação. In: A individuação à luz das noções de forma e de informação. Tradução: Luís Eduardo Ponciano Aragon; Tradução: Guilherme Ivo. 1. ed. São Paulo: Editora 34, 2020b. p. 507–545.

TURING, A. M. I.—COMPUTING MACHINERY AND INTELLIGENCE. Mind, v. LIX, n. 236, p. 433–460, out. 1950.

Creative Commons License

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial-CompartirIgual 4.0.

Derechos de autor 2022 Ideias

Descargas

Los datos de descargas todavía no están disponibles.