Reconocimiento 4.0 InternacionalNiño Vásquez, Luis FernandoVelandia Gutiérrez, Julián Camilo2025-06-252025-06-252025https://repositorio.unal.edu.co/handle/unal/88248ilustraciones, diagramas, tablasLos grandes modelos de lenguaje (LLMs) se han consolidado como un hito en el ámbito de la inteligencia artificial y el procesamiento del lenguaje natural, pero su implementación a gran escala se ve limitada por la necesidad de recursos computacionales elevados. Este trabajo propone que a partir de un modelo base, se exploren y combinen técnicas de procesamiento y selección cuidadosa de datos, entrenamiento y ajustes en la arquitectura, con el fin de mejorar la eficiencia de los modelos en entornos con recursos restringidos y sobre una base de conocimiento delimitada. El enfoque metodológico incluyó la definición de criterios para la elaboración de conjuntos de datos confiables, la experimentación controlada con diferentes configuraciones y la evaluación sistemática de las variantes resultantes en términos de capacidad, versatilidad, tiempo de respuesta y seguridad. Finalmente, se llevaron a cabo pruebas comparativas, midiendo el desempeño de las variantes desarrolladas y validando la eficacia de las estrategias propuestas (Texto tomado de la fuente).Large language models (LLMs) have emerged as a milestone in the field of artificial intelligence and natural language processing. However, their large-scale deployment remains constrained by the high computational resources they require. This work proposes that, starting from a base model, a combination of techniques—including careful data processing and selection, training strategies, and architectural adjustments—can be explored to improve model efficiency in resource-constrained environments and within a defined knowledge scope. The methodological approach involved defining criteria for building reliable datasets, conducting controlled experiments with various configurations, and systematically evaluating the resulting model variants in terms of capacity, versatility, response time, and safety. Finally, comparative tests were carried out to measure the performance of the developed variants and validate the effectiveness of the proposed strategies.65 páginasapplication/pdfspahttp://creativecommons.org/licenses/by/4.0/000 - Ciencias de la computación, información y obras generales::004 - Procesamiento de datos Ciencia de los computadores000 - Ciencias de la computación, información y obras generales::001 - Conocimiento000 - Ciencias de la computación, información y obras generales::003 - SistemasEstrategia eficiente para la mejora de las capacidades de modelos grandes de lenguaje (LLMs)Trabajo de grado - MaestríaUniversidad Nacional de ColombiaRepositorio Institucional Universidad Nacional de Colombiahttps://repositorio.unal.edu.co/info:eu-repo/semantics/openAccessLENGUAJES NATURALESNatural languagesLENGUAJES DE MAQUINAProgramming languagesLENGUAJES DE PROGRAMACION (COMPUTADORES ELECTRONICOS)Programming languages (electronic computers)PROCESAMIENTO ELECTRONICO DE DATOSElectronic data processingLINGUISTICA COMPUTACIONALComputational linguisticsLEXICOGRAFIA-PROCESAMIENTO DE DATOSLexicography Data processingAPRENDIZAJE AUTOMATICO (INTELIGENCIA ARTIFICIAL)Machine learningINTELIGENCIA ARTIFICIAL-PROCESAMIENTO DE DATOSArtificial intelligen - data processingGrandes Modelos de Lenguaje (LLMs)Eficiencia computacionalEntrenamiento eficienteBenchmarks de Modelos de LenguajeLarge Language Models (LLMs)Computational EfficiencyEfficient TrainingLanguage Model BenchmarksEfficient strategy for improving the capabilities of large language models (LLMs)Semantic WebWeb semántica