Volume 12 - Issue 62
/ February 2023
7
http:// www.amazoniainvestiga.info ISSN 2322- 6307
DOI: https://doi.org/10.34069/AI/2023.62.02.0
How to Cite:
Flores Borjabad, S.A. (2023). La intersección entre la adquisición del lenguaje y la inteligencia artificial: explorando el potencial de
los modelos de lenguaje natural. Amazonia Investiga, 12(62), 7-9. https://doi.org/10.34069/AI/2023.62.02.0
Editorial
La intersección entre la adquisición del lenguaje y la inteligencia artificial: explorando el
potencial de los modelos de lenguaje natural
Received: February 12, 2023 Accepted: March 22, 2023
Written by:
Salud Adelaida Flores Borjabad1
https://orcid.org/0000-0003-1739-3229
Web of Science ResearcherIDABI-1425-2020
La adquisición del lenguaje humano y la Inteligencia Artificial han ido unidos de la mano en las últimas décadas. Ha
sido uno de los grandes retos de la lingüística computacional, así como también el ser humano. Actualmente, nos
encontramos que el proceso de la adquisición del lenguaje está asociado a la psicología cognitiva, así como también
han aparecido en escena diferentes sistemas, tales como los Large Language Models.
Según estudios antropológicos, los seres humanos nos diferenciamos del resto de los animales en que hemos
desarrollado sistemas de comunicación propios que se basan fundamentalmente en la oralidad, pero que también se
apoyan en lo visual (Sinha & Jensen de López, 2019). De esta forma, la comunicación humana es propia de la necesidad
de la especie y ha evolucionado a lo largo del tiempo para convertirse en un sistema altamente sofisticado. El lenguaje
natural humano posee un alto grado de variación, ya que no solo se basa en el sistema oral, sino que también cuenta
con un aspecto visual, utilizando señales gestuales y posturales similares a las de los primates (Tomasello, 2019). Sin
embargo, a diferencia de estos, el lenguaje humano no depende de ellas en tan gran medida, y ha logrado desarrollar
una complejidad única y una capacidad de expresión sin precedentes. Dicho de otro modo, el lenguaje natural humano
tiene un componente biológico, en tanto que nuestro cerebro interviene en su adquisición de manera innata.
De este modo, se ha recurrido a la psicología cognitiva para analizar y estudiar el lenguaje humano. Así, el uso de
ordenadores para obtener modelos del comportamiento cognitivo es un desarrollo actual en psicología cognitiva que
ofrece interesantes perspectivas en el estudio del comportamiento inteligente o social del ser humano (López-González
& Guerrero-Bote, 2012). Esta disciplina se encuentra en la interfaz psicología-computación y está asociada a la
inteligencia artificial en el estudio de los procesos cognitivos (Russell & Norvig, 2010). Así pues, se ha llevado a cabo
un estudio del lenguaje natural humano y su aplicación en sistemas informáticos, puesto que se pretende desarrollar
modelos formales y computacionales de la gramática y del habla para que las máquinas puedan producir y entender el
lenguaje humano de manera eficiente.
En este contexto, hay que tener en cuenta la cibernética, que surge en la interfaz computación-neurociencia. Así, su
objetivo fundamental es el desarrollo de modelos de comunicación y control en el tiempo del comportamiento de
sistemas dinámicos (seres vivos o máquinas) (Wiener, 1948). Asimismo, su aplicación computacional al razonamiento
humano y a la resolución de problemas incide directamente en la investigación en ciencia cognitiva (Luger &
Stubblefield, 2014).
Teniendo en cuenta esto, la lingüística computacional se encuentra en la interfaz lingüística-computación, la cual se
dedica al procesamiento del lenguaje natural mediante modelos formales y computacionales de la gramática y del habla
(Gómez-Rodríguez & Vilares, 2019). Como consecuencia, esta disciplina busca implementar en los ordenadores la
capacidad de producción y entendimiento del lenguaje natural humano, por lo que el análisis y síntesis de voz, así como
la traducción automática, son centrales en su estudio (Chomsky, 2019). Sin embargo, desde el punto de vista de la
ciencia cognitiva, las gramáticas formales desarrolladas en las últimas décadas ofrecen modelos computables de la
complejidad estructural de los sistemas lingüísticos, siendo mucho más interesantes (Pinker, 2020).
Siguiendo esta línea, cabe destacar el uso de Large Language Models. Estos modelos se basan en redes neuronales y
algoritmos de aprendizaje profundo para analizar, entender y generar el lenguaje humano. Por lo general, son capaces
de aprender patrones complejos en grandes conjuntos de datos de texto, lo que les permite producir texto coherente y
coherente de alta calidad. Además, los Large Language Models han demostrado ser muy útiles en una variedad de
tareas de procesamiento de lenguaje natural, como la traducción automática, la generación de texto y la comprensión
del lenguaje natural. Dentro de este sistema destaca Generative Pre-trained Transformer 3 (GPT-3) desarrollado por
OpenAI (Brown et al., 2020). Este modelo de lenguaje tiene 175 mil millones de parámetros, lo que lo hace
1 Doctora en Estudios Filológicos Universidad de Sevilla España.
8
www.amazoniainvestiga.info ISSN 2322- 6307
significativamente más grande que otros modelos de lenguaje previamente desarrollados. GPT-3 ha demostrado ser
capaz de realizar tareas de lenguaje natural que antes se consideraban demasiado difíciles para los modelos anteriores,
como generar texto coherente y bien formado de alta calidad y traducir idiomas en tiempo real. Otro modelo de lenguaje
popular es Bidirectional Encoder Representations from Transformers (BERT) desarrollado por Google (Devlin et al.,
2018). BERT se ha utilizado con éxito en una variedad de tareas de procesamiento de lenguaje natural, como la
clasificación de texto y la respuesta a preguntas.
A pesar de todo, todavía queda mucho por hacer en todo este proceso. Si tenemos en cuenta a C. Hockett (1960) y
W. H. Thorpe (1974), podemos ver que el lenguaje natural humano tiene unas características específicas, según las
cuales nos diferencia de cualquier otro sistema vivo o máquina. De este modo, el lenguaje humano tiene una capacidad
reflexiva que le permite desarrollar una función metalingüística de la lengua, es decir, de poder reflexionar sobre
diferentes aspectos, incluido el propio lenguaje natural. Asimismo, también cuenta con una gran capacidad creativa, en
tanto que puede crear elementos lingüísticos nuevos, así como también estructurar los elementos existentes de una
manera diferente para generar mensajes completamente novedosos. Este hecho, por tanto, todavía no se encuentra
dentro de la Inteligencia Artificial, puesto que por el momento los diferentes sistemas de adquisición del lenguaje se
han basado en la repetición de parámetros, de ahí que muchas veces cometa fallos y no desarrolle la información
correcta.
Por otro lado, otro aspecto que también obvia la Inteligencia Artificial actualmente es la semántica y la pragmática. Es
preciso tener en cuenta que el lenguaje natural humano se desarrolla en su contexto, es decir, contamos con libertad
para controlar el estímulo, por lo que existe una adecuación contextual con un alcance ilimitado (Chomsky, 1987).
Asimismo, una de las características propias del ser humano es la capacidad de inventar expresiones inéditas, de manera
que no estamos expuestos a un proceso exclusivo de imitación, sino que tenemos una base genética que favorece la
generación de un lenguaje desde que que nacemos dividido en diferentes etapas (Pinker, 1994).
Por todo ello, si verdaderamente se quiere generar un lenguaje aplicado y asociado a la Inteligencia Artificial, hay que
centrarse netamente en la capacidad del ser humano para adquirir y desarrollar el lenguaje. Actualmente, todo se está
basando en un sistema algorítmico, dejando a un lado las etapas de la adquisición del lenguaje humano. El
procesamiento del lenguaje humano en Inteligencia Artificial se centra básicamente en textos, por lo que se ignora la
parte oral. El lenguaje oral y el lenguaje escrito son muy diferentes en términos de estructura y gramática, lo que hace
que el procesamiento de texto sea insuficiente para entender la comunicación humana de manera completa. Asimismo,
los diferentes sistemas usados para dividir la diferentes partes lingüísticas es insuficiente, en tanto que no se tienen en
cuenta diferentes estímulos tales como la cuestión pragmática y situacional. Así, el uso del sarcasmo o el tono irónico
en una conversación puede cambiar completamente el significado de lo que se está diciendo, algo que las máquinas
pueden tener dificultades para detectar y comprender. Por esta razón, con el fin de superar los diferentes desafíos que
presenta hoy por hoy la Inteligencia Artificial, el procesamiento de lenguaje natural debe ser utilizado al mismo nivel
que los humanos, es decir, es preciso que no sólo se dividan en estructuras morfológicas y sintácticas, sino también en
unidades semánticas y pragmáticas con el fin de que el mensaje emitido sea perfecto.
󰥋󰥄󰤏󰥙󰤘 󰤏󰤵󰤙󰥜 󰤕󰥑󰥡󰥠 󰤏󰥜󰤭󰥠 󰥳󰥌󰤏󰥩󰥅󰤼󰥼: 󰤏󰤹󰥝󰤙󰤴 󰤏󰥨󰤏󰥝󰥤 󰤏󰥥󰥨 󰤕󰥑󰥡󰥠 󰤕󰥵󰥍󰥵󰤓󰥅󰥠
󰤏󰤵󰤙󰥜 󰤕󰥑󰥡󰥠 󰤕󰥵󰥨󰤏󰤵󰥨󰥺 󰤏󰥜󰤭󰥠 󰥳󰥌󰤏󰥩󰥅󰤼󰥼 󰤯󰥴󰤫󰥴 󰤏󰤓󰥩󰤠 󰥱󰥠 󰤑󰥩󰤠 󰥳󰥔 󰥯󰥙󰥍󰥠 󰤯󰥵󰤨󰥸. 󰤏󰥭󰥨 󰤗󰥨󰤏󰥜 󰤫󰤤 󰥧󰥤 󰤏󰥴󰤫󰤥󰤙󰥠 󰤯󰤓󰥝󰥠 󰤕󰥑󰥡󰥠 󰤕󰥵󰤒󰥯󰤴󰤏󰤥󰥠
󰤏󰤵󰥨󰥺 󰥱󰥡󰥌 󰤫󰤤 󰥯󰤴. 󰤏󰥵󰥠󰤏󰤤 󰤫󰤡󰥨  󰤕󰥵󰥡󰥥󰥌 󰤏󰤵󰤙󰥜 󰤕󰥑󰥡󰥠 󰤕󰥅󰤓󰤘󰤯󰥤 󰥣󰥡󰥍󰤒 󰥣󰥡󰥌 󰤳󰥕󰥩󰥠 󰥳󰥜󰥺 󰤯󰥭󰥈 󰤏󰥁󰥴 󰥣󰥉󰥨 󰤕󰥕󰥡󰤙󰤩󰥤 󰥟󰤝󰥤 󰤏󰥥󰥨 󰤕󰥑󰥡󰥠
󰤯󰥵󰤓󰥝󰥠 (Models Language Large.)
󰤏󰥙󰥔 󰤏󰤴󰤫󰥡󰥠 󰤕󰥵󰤠󰥯󰥠󰥯󰤒󰤯󰤝󰥨󰥸 󰥓󰥡󰤙󰤩󰥴 󰤏󰤵󰥨󰥺 󰥧󰥌 󰤕󰥵󰥙󰤒 󰤏󰥨󰥯󰥵󰤥󰥠 󰥳󰥔 󰥫󰥨 󰤫󰥘 󰥋󰥀 󰤕󰥥󰥉󰥨 󰥼󰤏󰤽󰤘 󰤕󰤼󰤏󰤨 󰥫󰤒 󰤫󰥥󰤙󰥍󰤘 󰥳󰥔 󰤏󰤴󰥸 󰥱󰥡󰥌 󰤕󰥴󰥯󰥕󰤹󰥠
󰤏󰥭󰥩󰥝󰥠 󰤫󰥩󰤙󰤵󰤘 󰤏󰥁󰥴 󰥱󰥠 󰤑󰥨󰤏󰤡󰥠 󰤯󰤽󰤓󰥠 2019). pez,óL de Jensen & (Sinha 󰥛󰥠󰤭󰥠 󰤉󰥔 󰥟󰤼󰥯󰤙󰥠 󰤯󰤹󰤓󰥠 󰤫󰥍󰥴 󰤏󰥴󰤯󰥀 󰤳󰥩󰤡󰥡󰥠 󰤯󰤹󰤓󰥠 󰥯󰥅󰤘
󰥋󰥤 󰤯󰥤 󰤗󰥘󰥯󰥠 󰤣󰤓󰤽󰥵󰥠 󰤏󰥤󰤏󰥉󰥨 󰥯󰥅󰤙󰥤 󰤕󰥴󰤏󰥑󰥡󰥠. 󰤱󰥵󰥥󰤙󰥴 󰤕󰥑󰥡󰥠 󰤕󰥴󰤯󰤹󰤓󰥠 󰤕󰥵󰥍󰥵󰤓󰥅󰥠 󰤕󰤠󰤫󰤒 󰤕󰥵󰥠󰤏󰥌 󰥧󰥤 󰥧󰥴󰤏󰤓󰤙󰥠 󰤛󰥵󰤤 󰥼 󰤫󰥥󰤙󰥍󰤘 󰥃󰥙󰥔 󰥱󰥡󰥌 󰤏󰥉󰥩󰥠 󰥯󰥕󰤹󰥠 󰥟󰤒
󰥧󰥥󰥁󰤙󰤘 󰤏󰥁󰥴 󰤏󰤓󰥨󰤏󰤠 󰤏󰥴󰤯󰤽󰤒 󰤫󰤩󰤙󰤴󰤏󰤒 󰤏󰤸 󰤏󰥥󰥴󰥺 󰤏󰥜󰤯󰤥󰥠 󰤕󰥴󰤫󰤵󰤡󰥠 󰤕󰥭󰤒󰤏󰤹󰥥󰥠 󰥛󰥡󰤙󰥠 󰥳󰤙󰥠 󰤏󰥭󰥤󰤫󰤩󰤙󰤵󰥴 󰤏󰥵󰤌󰤏󰥤󰤯󰤓󰥠 2019). (Tomasello, 󰥱󰥡󰥌
󰤳󰥝󰥌 󰥛󰥠 󰥼 󰤫󰥥󰤙󰥍󰥴 󰤕󰥑󰥡󰥠 󰤕󰥴󰤯󰤹󰤓󰥠 󰥱󰥠 󰤭󰥬 󰤕󰤠󰤫󰥠 󰤏󰥭󰥵󰥡󰥌 󰤗󰥩󰥝󰥥󰤘 󰥧󰥤 󰤯󰥴󰥯󰥅󰤘 󰤫󰥵󰥙󰥍󰤘 󰤫󰥴󰤯󰥔 󰤫󰥘 󰤯󰥵󰤓󰥍󰤘 󰥼 󰥟󰥵󰤝󰥤 󰤏󰥭󰥠. 󰥱󰥩󰥍󰥥󰤒 󰤯󰤨 󰥯󰤙󰤥󰥴 󰤕󰥑󰥡󰥠
󰤕󰥵󰥍󰥵󰤓󰥅󰥠 󰤕󰥵󰥨󰤏󰤵󰥨󰥺 󰥱󰥡󰥌 󰥯󰥝󰥤 󰥯󰥵󰤤 󰤛󰥵󰤤 󰥟󰤨󰤫󰤙󰥴 󰤏󰥩󰥐󰤏󰥤 󰥳󰥔 󰥫󰤒󰤏󰤵󰤙󰥜 󰤕󰥙󰥴󰤯󰥅󰤒 󰤕󰥴󰤯󰥅󰥔 .
󰤉󰥔󰤕󰥑󰥡󰥠󰤕󰥵󰥍󰥵󰤓󰥅󰥠󰤗󰥙󰥔󰤏󰤵󰥨󰥺󰥱󰥠󰤕󰤠󰤏󰥭󰥴󰤏󰤵󰤘󰥋󰥤󰥼󰥶󰤭󰥝󰥬󰥣󰤘󰥯󰤡󰥡󰥠󰥱󰥠󰥣󰥡󰥌󰤳󰥕󰥩󰥠󰥳󰥜󰥺󰥟󰥵󰥡󰤥󰤙󰥠󰤕󰤴󰤕󰥑󰥡󰥠󰤕󰥴󰤯󰤹󰤓󰥠
󰥳󰥠󰤏󰤙󰥠󰤏󰤒󰤉󰥔󰤫󰤩󰤙󰤴󰤑󰥵󰤴󰥯󰤥󰥠󰥯󰤽󰤥󰥡󰥠󰥱󰥡󰥌󰤏󰥥󰥨󰥯󰥡󰤵󰥡󰥠󰥳󰥜󰥺󰥯󰥬󰥯󰥅󰤘󰤛󰥴󰤫󰤤󰥳󰥔󰥣󰥡󰥌󰤳󰥕󰥩󰥠󰥳󰥜󰥺󰤯󰥔󰥯󰥴󰤏󰥘󰤏󰥔󰤯󰥵󰤝󰥤󰥳󰥔󰤕󰤴
󰥯󰥡󰤵󰥠󰥳󰥜󰤭󰥠󰥳󰥌󰤏󰥥󰤙󰤠󰥼󰤏󰤵󰥨󰥻󰥠2012). Bote,-Guerrero & lezáGonz-pezó(L󰤫󰤠󰥯󰤙󰤘󰤭󰥬󰤏󰤽󰤽󰤩󰤙󰥠󰥳󰥔󰤕󰥭󰤠󰥣󰥡󰥌󰤳󰥕󰥩󰥠
󰤕󰤓󰤴󰥯󰤥󰥠󰥃󰤓󰤘󰤯󰤘󰤏󰥜󰤭󰥠󰤏󰤒󰥳󰥌󰤏󰥩󰥅󰤼󰥼󰥳󰥔󰤕󰤴󰤏󰥵󰥡󰥥󰥍󰥠󰤕󰥵󰥜󰥺2010). Norvig, & (Russell󰥣󰤘󰤯󰤠󰤕󰤴󰥯󰤤󰤕󰥑󰥡󰥠󰤕󰥵󰥍󰥵󰤓󰥅󰥠󰤕󰥵󰥨󰤏󰤵󰥨󰥺
󰤏󰥭󰤘󰤏󰥙󰥵󰤓󰥅󰤘󰥳󰥔󰤕󰥥󰥉󰥨󰥸󰤕󰥵󰤒󰥯󰤴󰤏󰤥󰥠󰤛󰥵󰤤󰤫󰥭󰥴󰥯󰤝󰤤󰤏󰤓󰥠󰥱󰥠󰤯󰥴󰥯󰥅󰤘󰤏󰥥󰥨󰤕󰥵󰥥󰤴󰤕󰥵󰤒󰥯󰤴󰤏󰤤󰥯󰤥󰥩󰥡󰥠󰥽󰥝󰥠󰥧󰥵󰥝󰥥󰤙󰥠󰥼󰥶󰥧󰥤󰤏󰤙󰥨󰥣󰥭󰥔󰤕󰥑󰥡󰥠
󰤕󰥴󰤯󰤹󰤓󰥠󰤏󰥕󰥝󰤒
󰥳󰥔󰤭󰥬󰤏󰥵󰤵󰥠󰤑󰤡󰥴󰤭󰤨󰤅󰥨󰥳󰥔󰤏󰤓󰤙󰥌󰥼󰤏󰥝󰥵󰤘󰤏󰥵󰥨󰤯󰤓󰥵󰤵󰥠󰥳󰤙󰥠󰤅󰤹󰥩󰤘󰥳󰥔󰤕󰥭󰤠󰤕󰤓󰤴󰥯󰤥󰥠󰥣󰥡󰥌󰤏󰤽󰥌󰥸󰥳󰥠󰤏󰤙󰥠󰤏󰤒󰥧󰥥󰥝󰥴󰤫󰥭󰥠󰥳󰤴󰤏󰤴󰥸
󰤏󰥝󰥵󰤘󰤏󰥵󰥨󰤯󰤓󰥵󰤵󰥡󰥠󰥳󰥔󰤯󰥴󰥯󰥅󰤘󰤏󰥥󰥨󰤏󰤽󰤘󰥽󰥠󰥣󰥝󰤥󰤙󰥠󰥳󰥔󰤗󰥘󰥯󰥡󰤴󰤕󰥥󰥉󰥨󰥸󰤕󰥵󰥝󰥵󰥤󰤏󰥩󰥴󰤫󰥠(󰤏󰥩󰤌󰤏󰥝󰥠󰤕󰥵󰤥󰥠󰥼󰥶)1948). (Wiener,󰤕󰥔󰤏󰥀󰥺󰤏󰤒󰥱󰥠
󰥛󰥠󰤯󰤜󰤇󰥴󰤏󰥭󰥙󰥵󰤓󰥅󰤘󰥳󰤒󰥯󰤴󰤏󰤥󰥠󰥱󰥡󰥌󰥼󰤫󰤙󰤴󰥼󰥳󰥨󰤏󰤵󰥨󰥺󰥟󰤤󰥽󰥝󰤹󰥥󰥠󰤯󰤸󰤏󰤓󰥤󰥳󰥔󰤛󰤥󰤓󰥠󰥳󰥔󰥯󰥡󰥍󰥠󰤕󰥵󰥜󰥺 Stubblefield, & (Luger
2014).
Volume 12 - Issue 62
/ February 2023
9
http:// www.amazoniainvestiga.info ISSN 2322- 6307
󰤯󰥉󰥩󰥠󰤏󰤒󰥱󰥠󰥛󰥠󰤉󰥔󰥣󰥡󰥌󰤕󰥑󰥡󰥠󰤕󰥵󰤒󰥯󰤴󰤏󰤥󰥠󰥋󰥙󰥴󰥳󰥔󰤕󰥭󰤠󰤕󰥑󰥡󰥠-󰥯󰤴󰤏󰤥󰥠󰥳󰤙󰥠󰥣󰤙󰥭󰤘󰤕󰤡󰥠󰤏󰥍󰥥󰤒󰤕󰥑󰥡󰥠󰤕󰥵󰥍󰥵󰤓󰥅󰥠󰤫󰤩󰤙󰤴󰤏󰤒󰤏󰥥󰥩󰥠󰤕󰥵󰥥󰤴󰤯󰥠
󰤕󰥵󰤒󰥯󰤴󰤏󰤥󰥠󰥯󰤥󰥩󰥡󰥠󰥽󰥝󰥠2019). Vilares, & guezíRodr-mezó(G󰤕󰤡󰥵󰤙󰥨󰥛󰥠󰤭󰥠󰥱󰥍󰤵󰤘󰤭󰥬󰤕󰤴󰤫󰥠󰥱󰥠󰥗󰥵󰥙󰤥󰤘󰤫󰥙󰥠󰥱󰥡󰥌󰤏󰤙󰥨󰥣󰥭󰥔󰤕󰥑󰥡󰥠
󰤕󰥵󰥍󰥵󰤓󰥅󰥠󰤕󰥴󰤯󰤹󰤓󰥠󰥳󰥔󰤑󰥵󰤴󰥯󰤥󰥠󰥛󰥠󰤭󰥠󰤉󰥔󰥟󰥵󰥡󰤥󰤘󰥯󰤽󰥠󰤑󰥵󰥜󰤯󰤙󰥠󰥛󰥠󰤭󰥜󰤕󰥥󰤠󰤯󰤙󰥠󰤕󰥵󰥠󰥶󰥳󰥬󰤕󰥴󰤱󰥜󰤯󰥤󰥳󰥔󰤏󰥭󰤙󰤴2019). (Chomsky,󰥋󰥤
󰥛󰥠󰥧󰥤󰤕󰥭󰤠󰤯󰥉󰥨󰥯󰥡󰥍󰥠󰤕󰥵󰥜󰥺󰤫󰥙󰤘󰤏󰥴󰥯󰤥󰥩󰥠󰤕󰥵󰥥󰤴󰤯󰥠󰥳󰤙󰥠󰤗󰥍󰥀󰥳󰥔󰥯󰥙󰥍󰥠󰤯󰥵󰤨󰥸󰤏󰥥󰥨󰤕󰥡󰤒󰤏󰥘󰤏󰤵󰤥󰥡󰥠󰤫󰥵󰥙󰥍󰤙󰥡󰥠󰥳󰥡󰥝󰥵󰥭󰥠󰤕󰥥󰥉󰥨󰥹󰥠
󰤕󰥴󰥯󰥑󰥡󰥠󰥳󰥬󰤯󰤝󰥜󰤏󰤜󰤏󰥥󰤙󰥬󰥽󰥠2020). (Pinker,
󰤯󰥥󰤙󰤴󰤏󰤒󰥱󰥡󰥌󰤭󰥬󰥯󰥩󰥥󰥠󰤑󰤡󰥴󰤫󰥵󰥜󰤅󰤙󰥠󰥱󰥡󰥌󰤫󰤩󰤙󰤴󰤏󰥥󰥨󰤕󰥑󰥡󰥠󰤯󰥵󰤓󰥝󰥠 Models Language Large󰤫󰥩󰤙󰤵󰤘󰤭󰥬󰤏󰥥󰥩󰥠󰥱󰥡󰥌󰤏󰥝󰤓󰤸
󰤕󰥵󰥨󰥯󰤓󰤽󰥌󰤏󰥵󰥤󰥯󰤨󰥣󰥡󰥍󰤙󰥠󰥗󰥵󰥥󰥍󰥠󰥟󰥵󰥡󰤥󰤙󰥠󰥣󰥭󰥔󰤫󰥵󰥠󰥯󰤘󰤕󰥑󰥡󰥠󰤕󰥴󰤯󰤹󰤓󰥠󰤏󰥤󰥯󰥥󰥌󰥳󰥭󰥔󰤏󰥘󰥱󰥡󰥌󰥣󰥡󰥍󰤘󰤏󰥥󰥨󰥸󰤫󰥙󰥍󰥥󰥠󰥳󰥔󰤏󰥌󰥯󰥥󰤡󰥤󰤯󰥵󰤓󰥜󰥧󰥤
󰤏󰥨󰤏󰥵󰤒󰤻󰥩󰥠󰤏󰥥󰥤󰤣󰥵󰤙󰥴󰤏󰥭󰥠󰤏󰤙󰥨󰤻󰥨󰥗󰤵󰤙󰥤󰥳󰥠󰤏󰥌󰥯󰤡󰥠󰤕󰥔󰤏󰥀󰥺󰤏󰤒󰥱󰥠󰥛󰥠󰤫󰥙󰥔󰤗󰤓󰤜󰤏󰥥󰥨󰤕󰥑󰥡󰥠󰤯󰥵󰤓󰥝󰥠󰥯󰥝󰤘󰤫󰥵󰥕󰥤󰤕󰥴󰤏󰥑󰥡󰥠󰥳󰥔󰤕󰥌󰥯󰥥󰤡󰥤
󰤕󰥌󰥯󰥩󰤙󰥤󰥧󰥤󰤏󰥭󰥤󰤕󰤡󰥠󰤏󰥍󰥤󰤕󰥑󰥡󰥠󰤕󰥵󰥍󰥵󰤓󰥅󰥠󰥟󰤝󰥤󰤕󰥥󰤠󰤯󰤙󰥠󰤕󰥵󰥠󰥶󰤏󰤙󰥨󰤻󰥩󰥠󰥣󰥭󰥔󰤕󰥑󰥡󰥠󰤕󰥵󰥍󰥵󰤓󰥅󰥠󰤯󰤓󰥴󰥳󰥔󰤭󰥬󰤏󰥉󰥩󰥠󰥯󰤥󰥥󰥠󰤫󰥥󰥠󰠳󰤓󰥴󰤫󰤘󰠳󰥴󰤫󰥵󰥠󰥯󰤘
3 Transformer trained-Pre Generative 3)-(GPT 󰤭󰥠󰥣󰤘󰤯󰥴󰥯󰥅󰤘󰥧󰥤󰥟󰤓󰥘OpenAI 2020 al., et Brown󰥯󰥝󰤙󰥴󰤭󰥬󰥯󰥥󰥩󰥠
󰥯󰥑󰥡󰥠󰥧󰥤175󰤏󰥵󰥡󰥤󰤕󰥥󰥡󰥍󰥤󰤏󰥥󰥤󰥫󰥡󰥍󰤡󰥴󰤯󰤓󰥜󰤯󰥵󰤝󰥝󰤒󰥧󰥤󰤏󰥥󰥩󰥠󰤕󰥴󰥯󰥑󰥡󰥠󰤯󰤨󰥸󰥳󰤙󰥠󰥣󰤘󰤏󰥬󰤯󰥴󰥯󰥅󰤘󰠳󰥙󰤒󰤏󰤴󰤫󰥘󰤗󰤓󰤜 3-GPT󰥫󰤘󰤫󰥘󰥱󰥡󰥌󰤏󰥭󰥤
󰤕󰥑󰥡󰥠󰤕󰥵󰥍󰥵󰤓󰥅󰥠󰥳󰤙󰥠󰤗󰥨󰤏󰥜󰤯󰤓󰤙󰥍󰤘󰤕󰤓󰥍󰤼󰠴󰤫󰤠󰤕󰤓󰤵󰥩󰥠󰤏󰤒󰤏󰥥󰥩󰥡󰥠󰤕󰥙󰤒󰤏󰤵󰥠󰥟󰤝󰥤󰤏󰤙󰥨󰤻󰥨󰥣󰤡󰤵󰥩󰥤󰤫󰥵󰤠󰤕󰥐󰤏󰥵󰤽󰥠󰥳󰥠󰤏󰥌󰥯󰤡󰥠󰤕󰥥󰤠󰤯󰤘󰤏󰥑󰥡󰥠󰥳󰥔󰤗󰥘󰥯󰥠
󰥳󰥡󰥍󰥕󰥠󰤯󰤓󰤙󰥍󰥴󰥯󰥥󰥨󰤕󰥑󰥡󰥠󰤯󰤨󰥶󰥋󰤌󰤏󰤹󰥠󰥯󰥬󰥽󰥵󰤝󰥥󰤘󰤯󰥕󰤹󰥥󰥠󰤱󰥥󰥠󰤕󰥅󰤓󰥩󰤙󰤵󰥥󰥠󰥧󰥤󰥼󰥯󰤥󰥥󰥠 Representations Encoder Bidirectional
Transformers from BERT󰤭󰥠󰥣󰤘󰤯󰥴󰥯󰥅󰤘󰥧󰥤󰥟󰤓󰥘󰤕󰥜󰤯󰤸Google2018 al., et Devlin󰥣󰤘󰤫󰤩󰤙󰤴 BERT󰤏󰤡󰥩󰤒󰥳󰥔󰤕󰥌󰥯󰥥󰤡󰥤
󰤕󰥌󰥯󰥩󰤙󰥤󰥧󰥤󰤏󰥭󰥤󰤕󰤡󰥠󰤏󰥍󰥤󰤕󰥑󰥡󰥠󰤕󰥵󰥍󰥵󰤓󰥅󰥠󰥟󰤝󰥤󰥓󰥵󰥩󰤽󰤘󰥯󰤽󰥩󰥠󰤕󰤒󰤏󰤠󰥺󰥱󰥡󰥌󰤕󰥡󰤍󰤴󰥸
󰥱󰥡󰥌󰥣󰥐󰤯󰥠󰥧󰥤󰥛󰥠󰥼󰤱󰥴󰤏󰥩󰥬󰤯󰥵󰤝󰥝󰥠󰤏󰥥󰥤󰥧󰥵󰥍󰤙󰥴󰤏󰥵󰥙󰥠󰥫󰤒󰥳󰥔󰤭󰥬󰤕󰥵󰥡󰥥󰥍󰥠󰤏󰥤󰤏󰥨󰤭󰤨󰥧󰥵󰥍󰤒󰤏󰤓󰤙󰥌󰥼󰤻󰤌󰤏󰤽󰤩󰥠󰤫󰤥󰥥󰥠󰥳󰤙󰥠󰤱󰥵󰥥󰤙󰥴󰤏󰥭󰤒󰤕󰥑󰥡󰥠
󰤕󰥵󰥍󰥵󰤓󰥅󰥠󰤕󰥴󰤯󰤹󰤓󰥠󰤏󰥙󰥔󰥠 (1960) Hockett C.(1974) Thorpe W.H.󰤏󰥩󰥨󰤉󰥔󰤫󰤡󰥨󰤏󰥭󰥨󰤏󰥨󰤱󰥵󰥥󰤘󰥧󰥌󰤏󰥉󰥨󰥳󰤤󰤯󰤨󰤏󰥭󰤠󰥳󰥠󰤭󰥭󰤒
󰤕󰥙󰥴󰤯󰥅󰥠󰤉󰥔󰤕󰥑󰥡󰥠󰤕󰥴󰤯󰤹󰤓󰥠󰤏󰥭󰥴󰤫󰥠󰤫󰥘󰤕󰥵󰥡󰥤󰤅󰤘󰤣󰥵󰤙󰤘󰤏󰥭󰥠󰤯󰥴󰥯󰥅󰤘󰤕󰥕󰥵󰥈󰤕󰥵󰥕󰥴󰤯󰥍󰤘󰤕󰥑󰥡󰥠󰤭󰥬󰥳󰥩󰥍󰥴󰤫󰥙󰥠󰥱󰥡󰥌󰥟󰥤󰤅󰤙󰥠󰥳󰥔󰤑󰥨󰥯󰤠󰤕󰥕󰥡󰤙󰤩󰥤󰤏󰥥󰤒󰥳󰥔󰥛󰥠
󰤕󰥑󰥡󰥠󰤕󰥵󰥍󰥵󰤓󰥅󰥠󰤏󰥭󰤘󰤕󰥔󰤏󰥀󰥺󰤏󰤒󰥱󰥠󰥛󰥠󰥫󰥨󰤉󰥔󰥋󰤙󰥥󰤙󰥴󰠳󰥁󰥴󰤫󰥙󰤒󰤕󰥵󰥌󰤫󰤒󰤯󰥵󰤓󰥜󰤛󰥵󰤤󰥫󰥩󰥝󰥥󰥴󰤏󰤹󰥨󰤯󰤼󰤏󰥩󰥌󰤕󰥴󰥯󰥑󰥠󰤫󰥴󰤫󰤠󰥛󰥠󰤭󰥜󰥣󰥵󰥉󰥩󰤘󰤯󰤼󰤏󰥩󰥍󰥠󰤕󰥵󰥠󰤏󰤥󰥠
󰤕󰥙󰥴󰤯󰥅󰤒󰤕󰥕󰥡󰤙󰤩󰥤󰤏󰤙󰥨󰥺󰥟󰤌󰤏󰤴󰤫󰥴󰤫󰤠󰠳󰥤󰤏󰥥󰤘󰥛󰥠󰤭󰥠󰤉󰥔󰤭󰥬󰤕󰥙󰥵󰥙󰤥󰥠󰥼󰤱󰤘󰤏󰤨󰤏󰥅󰥨󰤏󰥜󰤭󰥠󰥳󰥌󰤏󰥩󰥅󰤼󰥼󰤛󰥵󰤤󰥓󰥡󰤙󰤩󰥤󰤕󰥥󰥉󰥨󰤏󰤵󰤙󰥜󰤕󰥑󰥡󰥠
󰥱󰤙󰤤󰥶󰤫󰥥󰤙󰥍󰤘󰥱󰥡󰥌󰤯󰥝󰤘󰤏󰥥󰥡󰥍󰥥󰥠󰥧󰥤󰤏󰥩󰥬󰤏󰥭󰥨󰤉󰥔󰤑󰥝󰤘󰤯󰤘󰤫󰥴󰤫󰥍󰥠󰥧󰥤󰤏󰥅󰤨󰥸󰥼󰥯󰥅󰤘󰤏󰥤󰥯󰥡󰥍󰥥󰥠󰤕󰤥󰥵󰤥󰤽󰥠
󰥧󰥤󰤕󰥵󰤤󰤏󰥨󰤯󰤨󰤉󰥔󰤑󰥨󰤏󰤠󰤯󰤨󰥫󰥡󰥬󰤏󰤡󰤙󰥴󰤏󰥜󰤭󰥠󰥳󰥌󰤏󰥩󰥅󰤼󰥼󰤏󰥵󰥠󰤏󰤤󰥯󰥬󰥱󰥩󰥍󰥥󰥠󰤕󰥵󰤘󰤏󰥥󰥐󰤯󰤓󰥠󰤑󰤡󰥴󰤏󰥌󰤯󰥤󰤕󰥑󰥡󰥠󰤕󰥵󰥍󰥵󰤓󰥅󰥠󰤕󰥴󰤯󰤹󰤓󰥠󰥯󰥅󰤙󰤘󰥳󰥔
󰤏󰥭󰥘󰤏󰥵󰤴󰤏󰥩󰥨󰥛󰥡󰤙󰥥󰥨󰤕󰥴󰤯󰤤󰥣󰥝󰤥󰤙󰥠󰥳󰥔󰤱󰥕󰤥󰥥󰥠󰤭󰥠󰤏󰥩󰥭󰥔󰥓󰥵󰥝󰤘󰥳󰥘󰤏󰥵󰤴󰤏󰥅󰥨󰤯󰥵󰥐󰤫󰤥󰥤1987). (Chomsky,󰤏󰥥󰥜󰤫󰤤󰤏󰥕󰤼󰤏󰤵󰥨󰥺
󰥳󰥬󰤫󰥙󰥠󰥱󰥡󰥌󰤯󰤙󰤨󰤯󰥵󰤓󰥍󰤘󰤫󰥴󰤫󰤠󰤛󰥵󰤥󰤒󰤏󰥩󰤵󰥠󰤕󰥀󰤯󰥌󰤕󰥵󰥡󰥥󰥍󰥠󰤫󰥵󰥡󰥙󰤙󰥠󰤕󰥴󰤯󰤽󰤥󰥠󰥟󰤒󰤏󰥩󰥴󰤫󰥠󰤫󰥌󰤏󰥘󰤕󰥵󰤜󰥋󰤡󰤹󰤘󰥱󰥡󰥌󰤫󰥵󰥠󰥯󰤘󰤕󰥑󰥠󰤭󰥩󰥤󰥼󰥯󰥠
󰥣󰤵󰥙󰥩󰤘󰥱󰥠󰥟󰤤󰤯󰥤󰤕󰥕󰥡󰤙󰤩󰥤1994) (Pinker,
󰥛󰥠󰤭󰥠󰤗󰥩󰥜󰤏󰥙󰤤󰤑󰥐󰤯󰤘󰥳󰥔󰤏󰤹󰥨󰤕󰥑󰥠󰤕󰥵󰥙󰥵󰤓󰥅󰤘󰤕󰥅󰤓󰤘󰤯󰥤󰤏󰥜󰤭󰥠󰤏󰤒󰥳󰥌󰤏󰥩󰥅󰤼󰥼󰤑󰤡󰥵󰥔󰤱󰥵󰥜󰤯󰤙󰥠󰥟󰥝󰤹󰤒󰤣󰥴󰤯󰤼󰥱󰥡󰥌󰤫󰥘󰤏󰤵󰥨󰥺󰥱󰥡󰥌󰤏󰤵󰤙󰥜
󰤯󰥴󰥯󰥅󰤘󰤕󰥑󰥡󰥠󰤏󰥵󰥠󰤏󰤤󰤫󰥥󰤙󰥍󰥴󰥟󰥜󰥳󰤸󰥱󰥡󰥌󰤏󰥉󰥨󰥳󰤘󰤏󰥵󰥤󰥯󰤨󰥽󰥬󰤏󰤡󰤙󰥤󰥟󰤤󰤯󰥤󰤏󰤵󰤙󰥜󰤕󰥑󰥡󰥠󰤕󰥵󰥨󰤏󰤵󰥨󰥺󰥯󰤥󰥥󰤙󰥴󰤕󰤡󰥠󰤏󰥍󰥤󰤕󰥑󰥡󰥠󰤕󰥵󰥨󰤏󰤵󰥨󰥺󰥳󰥔󰤏󰥜󰤭󰥠
󰥳󰥌󰤏󰥩󰥅󰤼󰥼󰥟󰥝󰤹󰤒󰥳󰤴󰤏󰤴󰥯󰤤󰥯󰤽󰥩󰥠󰤏󰥥󰥤󰥟󰥍󰤡󰥴󰤑󰥨󰤏󰤡󰥠󰥯󰥕󰤹󰥠󰥟󰥥󰥭󰥤󰤕󰥑󰥡󰥠󰤕󰥴󰥯󰥕󰤹󰥠󰤕󰥵󰤒󰤏󰤙󰥝󰥠󰤏󰤙󰥕󰥡󰤙󰤩󰥤󰥟󰥝󰤹󰤒󰤯󰥵󰤓󰥜󰥧󰥤󰤛󰥵󰤤󰥟󰥝󰥵󰥭󰥠
󰤫󰥌󰥯󰥙󰥠󰤕󰥴󰥯󰤥󰥩󰥠󰤏󰥥󰥤󰥟󰥍󰤡󰥴󰤕󰤡󰥠󰤏󰥍󰥤󰥯󰤽󰥩󰥠󰤯󰥵󰥐󰤕󰥵󰥔󰤏󰥜󰥣󰥭󰥕󰥠󰥟󰤼󰥯󰤙󰥠󰥳󰥨󰤏󰤵󰥨󰥺󰥟󰥝󰤹󰤒󰥟󰥤󰤏󰥜󰤕󰥔󰤏󰥀󰥺󰤏󰤒󰥱󰥠󰥛󰥠󰤉󰥔󰤕󰥥󰥉󰥨󰥸󰤕󰥕󰥡󰤙󰤩󰥥󰥠
󰤕󰥤󰤫󰤩󰤙󰤵󰥥󰥠󰥣󰥵󰤵󰥙󰤙󰥠󰤱󰤠󰥸󰤕󰥴󰥯󰥑󰥡󰥠󰤯󰥵󰥐󰤕󰥵󰥔󰤏󰥜󰤛󰥵󰤤󰥼󰤭󰤨󰤅󰤘󰥧󰥵󰥍󰤒󰤏󰤓󰤙󰥌󰥼󰥓󰥡󰤙󰤩󰥤󰤱󰥕󰤥󰥥󰥠󰥟󰤝󰥤󰤕󰥠󰤅󰤵󰥥󰥠󰤕󰥵󰥐󰥽󰤓󰥠󰤕󰥵󰥕󰥘󰥯󰥥󰥠󰥳󰥠󰤏󰤙󰥠󰤏󰤒󰥧󰥝󰥥󰥴
󰤇󰥴󰤫󰤩󰤙󰤴󰤕󰥴󰤯󰤩󰤵󰥠󰤯󰤓󰥩󰥠󰤯󰤨󰤏󰤵󰥠󰥳󰥔󰤕󰤜󰤏󰤥󰥥󰥠󰥱󰥠󰤯󰥵󰥵󰥑󰤘󰥱󰥩󰥍󰥤󰥽󰥝󰥠󰤏󰥤󰤏󰥥󰤘󰤏󰥥󰥤󰤫󰥘󰤑󰥍󰤽󰥴󰥱󰥡󰥌󰥼󰥶󰥓󰤹󰥝󰥠󰥫󰥩󰥌󰥫󰥥󰥭󰥔󰤭󰥭󰥠󰤑󰤓󰤵󰥠
󰥧󰥤󰥟󰤠󰤑󰥡󰥑󰤙󰥠󰥱󰥡󰥌󰤏󰥴󰤫󰤥󰤙󰥠󰤕󰥕󰥡󰤙󰤩󰥥󰥠󰥳󰤙󰥠󰤏󰥭󰥭󰤠󰥯󰤘󰤏󰥜󰤭󰥠󰥳󰥌󰤏󰥩󰥅󰤼󰥼󰥳󰥔󰤗󰥘󰥯󰥠󰥳󰥠󰤏󰤥󰥠󰤑󰤡󰥴󰤫󰤩󰤙󰤴󰤕󰤡󰥠󰤏󰥍󰥤󰤕󰥑󰥡󰥠󰤕󰥵󰥍󰥵󰤓󰥅󰥠󰥱󰥡󰥌󰤳󰥕󰥨
󰥯󰤙󰤵󰥥󰥠󰤭󰥠󰥫󰥤󰤫󰤩󰤙󰤵󰥴󰤯󰤹󰤓󰥠󰥫󰥨󰥧󰥤󰤯󰥁󰥠󰥼󰥣󰤙󰥴󰤏󰥭󰥥󰥵󰤵󰥙󰤘󰥃󰥙󰥔󰥱󰥠󰥟󰥜󰤏󰥵󰥭󰥠󰤕󰥵󰤠󰥯󰥠󰥯󰥔󰥯󰥥󰥠󰤕󰥵󰥔󰤯󰤽󰥠󰥧󰥝󰥠󰤏󰥁󰥴󰥱󰥠󰤫󰤤󰥯󰥠
󰤕󰥵󰥠󰥼󰤫󰥠󰤕󰥵󰤘󰤏󰥥󰤠󰤯󰤓󰥠󰥧󰥤󰥟󰤠󰥟󰥍󰤠󰤕󰥠󰤏󰤴󰤯󰥠󰤕󰥡󰤴󰤯󰥥󰥠󰤕󰥵󰥠󰤏󰤝󰥤
Referencias bibliográficas
Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., ... & Amodei, D. (2020). Language models
are few-shot learners. arXiv preprint arXiv:2005.14165.
Chomsky, N. (1987). Language and Problems of Knowledge. The Managua Lectures. The MIT Press, Cambridge,
Mass.
Chomsky, N. (2019). The science of language. Cambridge University Press.
Devlin, J., Chang, M. W., Lee, K., & Toutanova, K. (2018). BERT: Pre-training of deep bidirectional transformers for
language understanding. arXiv preprint arXiv:1810.04805.
Gómez-Rodríguez, C., & Vilares, D. (2019). Lingüística Computacional. In C. Gutiérrez-Vega & E. G. Ruiz (Eds.),
Introducción a la lingüística computacional (pp. 1-30). El Colegio de México.
Hockett, C. (1960). The origin of speech. Scientific American, 203, 88- 96.
López-González, M. A., & Guerrero-Bote, V. P. (2012). Modelos computacionales en psicología cognitiva. Revista
española de documentación científica, 35(1), 11-28.
Luger, G. F., & Stubblefield, W. A. (2014). Artificial intelligence: structures and strategies for complex problem
solving. Morgan Kaufmann.
Pinker, S. (1994). The language instinct. How the mind creates language. Trad. El instinto del lenguaje. Cómo crea el
lenguaje la mente. Madrid: Alianza, 1995.
Pinker, S. (2020). The language instinct: How the mind creates language. HarperCollins.
Russell, S. J., & Norvig, P. (2010). Artificial intelligence: a modern approach. Pearson Education.
Sinha, C., & Jensen de López, K. (2019). Language and communication: A cross-cultural encyclopedia. ABC-CLIO.
Thorpe, W. H. (1974). Animal Nature and Human Nature. Nueva York: Doubleday.
Tomasello, M. (2019). Becoming human: A theory of ontogeny. Harvard University Press.
Wiener, N. (1948). Cybernetics: or control and communication in the animal and the machine. MIT press.