Técnicas y modelos del lenguaje del pensamiento para el aprendizaje automático a partir de cuerpos de datos ralos

En las últimas dos décadas, distintas técnicas de ingeniería reversa del aprendizaje en humanos han influenciado el éxito de los algoritmos de aprendizaje automático. Técnicas como el aprendizaje profundo han alcanzado resultados notables en varios dominios como la detección visual de objetos, el re...

Descripción completa

Guardado en:
Detalles Bibliográficos
Autor principal: Romano, Sergio Gastón
Formato: Tesis Doctoral
Lenguaje:Español
Publicado: 2021
Materias:
Acceso en línea:https://hdl.handle.net/20.500.12110/tesis_n7059_Romano
Aporte de:
id todo:tesis_n7059_Romano
record_format dspace
institution Universidad de Buenos Aires
institution_str I-28
repository_str R-134
collection Biblioteca Digital - Facultad de Ciencias Exactas y Naturales (UBA)
language Español
orig_language_str_mv Español
topic LENGUAJE DEL PENSAMIENTO
INFERENCIA BAYESIANA
COMPLEJIDAD DE KILMOGOROV
LONGITUD MINIMA DE DESCRIPCION
LANGUAGE OF THOUGHT
BAYESIAN INFERENCE
KOLMOGOROV COMPLEXITY
MINIMUM DESCRIPTION LENGTH
spellingShingle LENGUAJE DEL PENSAMIENTO
INFERENCIA BAYESIANA
COMPLEJIDAD DE KILMOGOROV
LONGITUD MINIMA DE DESCRIPCION
LANGUAGE OF THOUGHT
BAYESIAN INFERENCE
KOLMOGOROV COMPLEXITY
MINIMUM DESCRIPTION LENGTH
Romano, Sergio Gastón
Técnicas y modelos del lenguaje del pensamiento para el aprendizaje automático a partir de cuerpos de datos ralos
topic_facet LENGUAJE DEL PENSAMIENTO
INFERENCIA BAYESIANA
COMPLEJIDAD DE KILMOGOROV
LONGITUD MINIMA DE DESCRIPCION
LANGUAGE OF THOUGHT
BAYESIAN INFERENCE
KOLMOGOROV COMPLEXITY
MINIMUM DESCRIPTION LENGTH
description En las últimas dos décadas, distintas técnicas de ingeniería reversa del aprendizaje en humanos han influenciado el éxito de los algoritmos de aprendizaje automático. Técnicas como el aprendizaje profundo han alcanzado resultados notables en varios dominios como la detección visual de objetos, el reconocimiento de voz, o las traducciones automáticas, entre otros. Sin embargo, pese a que aprender a partir de pocos datos es una capacidad cotidiana de la mente humana, las técnicas actuales de aprendizaje automático no dan las mismas garantías al respecto. Investigaciones previas sobre modelos computacionales de la cognición humana han propuesto la idea de que la habilidad ubicua del ser humano para hacer predicciones sobre cuerpos ralos de datos se basa en el uso de modelos probabilísticos donde el conocimiento se representa en espacios adecuadamente estructurados sobre los que se aplican reglas de inferencia. Estos trabajos están revalorizando la hipótesis de Jerry Fodor que explica al pensamiento humano en una suerte de lenguaje mental llamado Lenguaje del Pensamiento compuesto por un conjunto de símbolos atómicos que pueden ser combinados en estructuras más complejas a partir de reglas combinatorias. En este trabajo diseñamos y evaluamos distintos modelos del Lenguaje del Pensamiento para explicar el aprendizaje humano con pocos datos en diversos dominios: secuencias binarias en el dominio visual y auditivo, secuencias geométricas en el campo visual, y conceptos lógicos. En nuestros modelos suponemos que el Lenguaje del Pensamiento actúa como un lenguaje de programación capaz de generar programas para modelar conceptos del mundo, y explicamos el aprendizaje como un proceso de inferencia probabilista sobre estos programas o con un enfoque de longitud mínima de descripción basado en las nociones de complejidad algorítmica. Proponemos, a su vez, distintas técnicas para mejorar el proceso de construcción y validación de los modelos del Lenguaje del Pensamiento con el objetivo de hacerlos más dinámicos y robustos
format Tesis Doctoral
author Romano, Sergio Gastón
author_facet Romano, Sergio Gastón
author_sort Romano, Sergio Gastón
title Técnicas y modelos del lenguaje del pensamiento para el aprendizaje automático a partir de cuerpos de datos ralos
title_short Técnicas y modelos del lenguaje del pensamiento para el aprendizaje automático a partir de cuerpos de datos ralos
title_full Técnicas y modelos del lenguaje del pensamiento para el aprendizaje automático a partir de cuerpos de datos ralos
title_fullStr Técnicas y modelos del lenguaje del pensamiento para el aprendizaje automático a partir de cuerpos de datos ralos
title_full_unstemmed Técnicas y modelos del lenguaje del pensamiento para el aprendizaje automático a partir de cuerpos de datos ralos
title_sort técnicas y modelos del lenguaje del pensamiento para el aprendizaje automático a partir de cuerpos de datos ralos
publishDate 2021
url https://hdl.handle.net/20.500.12110/tesis_n7059_Romano
work_keys_str_mv AT romanosergiogaston tecnicasymodelosdellenguajedelpensamientoparaelaprendizajeautomaticoapartirdecuerposdedatosralos
AT romanosergiogaston languageofthoughtmodelsandtechniquesformachinelearningfromsparsedata
_version_ 1782027113623191552
spelling todo:tesis_n7059_Romano2023-10-03T13:15:52Z Técnicas y modelos del lenguaje del pensamiento para el aprendizaje automático a partir de cuerpos de datos ralos Language of thought models and techniques for machine learning from sparse data Romano, Sergio Gastón LENGUAJE DEL PENSAMIENTO INFERENCIA BAYESIANA COMPLEJIDAD DE KILMOGOROV LONGITUD MINIMA DE DESCRIPCION LANGUAGE OF THOUGHT BAYESIAN INFERENCE KOLMOGOROV COMPLEXITY MINIMUM DESCRIPTION LENGTH En las últimas dos décadas, distintas técnicas de ingeniería reversa del aprendizaje en humanos han influenciado el éxito de los algoritmos de aprendizaje automático. Técnicas como el aprendizaje profundo han alcanzado resultados notables en varios dominios como la detección visual de objetos, el reconocimiento de voz, o las traducciones automáticas, entre otros. Sin embargo, pese a que aprender a partir de pocos datos es una capacidad cotidiana de la mente humana, las técnicas actuales de aprendizaje automático no dan las mismas garantías al respecto. Investigaciones previas sobre modelos computacionales de la cognición humana han propuesto la idea de que la habilidad ubicua del ser humano para hacer predicciones sobre cuerpos ralos de datos se basa en el uso de modelos probabilísticos donde el conocimiento se representa en espacios adecuadamente estructurados sobre los que se aplican reglas de inferencia. Estos trabajos están revalorizando la hipótesis de Jerry Fodor que explica al pensamiento humano en una suerte de lenguaje mental llamado Lenguaje del Pensamiento compuesto por un conjunto de símbolos atómicos que pueden ser combinados en estructuras más complejas a partir de reglas combinatorias. En este trabajo diseñamos y evaluamos distintos modelos del Lenguaje del Pensamiento para explicar el aprendizaje humano con pocos datos en diversos dominios: secuencias binarias en el dominio visual y auditivo, secuencias geométricas en el campo visual, y conceptos lógicos. En nuestros modelos suponemos que el Lenguaje del Pensamiento actúa como un lenguaje de programación capaz de generar programas para modelar conceptos del mundo, y explicamos el aprendizaje como un proceso de inferencia probabilista sobre estos programas o con un enfoque de longitud mínima de descripción basado en las nociones de complejidad algorítmica. Proponemos, a su vez, distintas técnicas para mejorar el proceso de construcción y validación de los modelos del Lenguaje del Pensamiento con el objetivo de hacerlos más dinámicos y robustos In the last two decades, different techniques to reverse engineer the human brain have successfully inspired artificial intelligence algorithms. Recent advances in deep learning have achieved remarkable results in many domains such as visual object recognition, speech recognition and automated translation. However,although learning from sparse data is a common ability of the human mind, current machine learning techniques have not been able to mimic such ability with the same success. Previous computational cognitive research has proposed the idea that the ubiquitous ability of the human being to make predictions from sparse data can be represented by models of probabilistic inference over symbolically structured representation spaces. These proposals are revamping Jerry Fodor’s hypothesis which states that thinking takes form in a sort of mental Language of Thought composed of a limited set of atomic symbols that can be combined to form more complex structures following combinatorial rules. In this work we design and evaluate different Language of Thought models to explain human learning from sparse data in various domains: binary sequences in the visual and auditory domain, geometric sequences in the visual domain, and logical concepts. In our models we assume that the Language of Thought acts as a programming language capable of generating programs to model concepts in the world, and we explain learning as a process of probabilistic inference over these programs or with a minimum length of description approach based on the notions of algorithmic complexity. Finally, we propose different techniques to improve the process of construction and validation of the Language of Thought models in order to make them more dynamic and reliable. Fil: Romano, Sergio Gastón. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina. 2021 Tesis Doctoral PDF Español info:eu-repo/semantics/openAccess https://creativecommons.org/licenses/by-nc-sa/2.5/ar https://hdl.handle.net/20.500.12110/tesis_n7059_Romano