Desarrollo de un sistema a la medida de generación aumentada por recuperación para la consulta interactiva de información especializada de estadística delictiva en Colombia ; Development of a custom retrieval-augmented generation system for the interactive querying of specialized crime statistics in Colombia

Uloženo v:
Podrobná bibliografie
Název: Desarrollo de un sistema a la medida de generación aumentada por recuperación para la consulta interactiva de información especializada de estadística delictiva en Colombia ; Development of a custom retrieval-augmented generation system for the interactive querying of specialized crime statistics in Colombia
Autoři: Forero Baena, Nicolás
Přispěvatelé: Hortua Orjuela, Hector Javier
Zdroj: https://tesiscrimen.streamlit.app/.
Rok vydání: 2024
Témata: RAG (Generación Aumentada por Recuperación), LLMs (Modelos de Lenguaje de Gran Tamaño), GPT (Transformador Generativo Pre-entrenado), OpenAI, Langchain, LangGraph, SQL (Lenguaje de Consulta Estructurado), Text-to-SQL (Conversión de Texto a SQL), Streamlit, Estadística delictiva, SIEDCO, RAG (Retrieval-Augmented Generation), LLMs (Large Language Models), GPT (Generative Pre-training Transformer), SQL (Structured Query Language), Text-to-SQL, Crime statistics
Popis: Los modelos de lenguaje de gran tamaño, o LLMs por sus siglas en inglés, han mostrado capacidades formidables en la generación de texto articulado. Actualmente, son la base de varios tipos de aplicaciones en la escena IA, e.g. chatbots, sistemas QA, recomendadores, etc. Sin embargo, estos LLMs pueden mostrar imprecisiones convincentes sobre temas especializados o recientes, lo que se conoce como ‘alucinaciones’. Por tal motivo, la generación aumentada por recuperación, o RAG por sus siglas en inglés, se ha mostrado útil en la producción de contenido factualmente correcto por parte de los LLMs, al brindarles una base de conocimiento o una ventana contextual verídica, e.g. texto, base de datos, etc. Se desarrolló una aplicación web con los marcos de trabajo Langchain y LangGraph, mediante la cual un usuario hace consultas en lenguaje natural sobre estadística delictiva de Colombia; un modelo como GPT4o interpreta dicha consulta, la traduce en lenguaje SQL, ejecuta la consulta sobre una base de conocimiento especializada construída a partir de sábanas de datos del SIEDCO (Sistema de Información Estadístico, Delincuencial Contravencional y Operativo) de la Policía Nacional de Colombia, recupera la información y la retorna al usuario en forma de gráfico o dataframe, todo lo anterior en una interfaz gráfica sencilla de Streamlit. La aplicación web muestra buenos resultados en general y tiempos de inferencia razonables, con fallos de interpretación ocasionales, permitiendo consultar de una forma interactiva esta información coyuntural de interés general. ; Large Language Models (LLMs) have demonstrated remarkable capabilities in generating articulated text. They currently serve as the backbone of various AI applications—such as chatbots, QA systems, recommendation engines, and more. However, these LLMs can sometimes produce convincingly inaccurate information on specialized or recent topics, a phenomenon known as “hallucinations.” For this reason, Retrieval-Augmented Generation (RAG) has proven useful in ensuring ...
Druh dokumentu: other/unknown material
Popis souboru: application/pdf
Jazyk: Spanish; Castilian
Relation: Obeng, A., Zhong, J. C., & Gu, C. (2024). How we built text-to-SQL at Pinterest. Pinterest Engineering Blog@Medium. https://medium.com/pinterest-engineering/how-we-built-text-to-sql-at-pinterest-30bad30dabff; Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, L., & Polosukhin, I. (2017). Attention is all you need. arXiv preprint arXiv:1706.03762. https://arxiv.org/abs/1706.03762; Amidi, A., & Amidi, S. (2024). Super study guide: Transformers & large language models. Afshine Amidi and Shervine Amidi.; Bouchard, L.-F., & Peters, L. (2024). Building LLMs for production: Enhancing LLM abilities and reliability with prompting, fine-tuning, and RAG. Towards AI.; Huang, L., Yu, W., Ma, W., Zhong, W., Feng, Z., Wang, H., Chen, Q., Peng, W., Feng, X., Qin, B., & Liu, T. (2023). A survey on hallucination in large language models: Principles, taxonomy, challenges, and open questions. arXiv preprint arXiv:2311.05232. https://arxiv.org/abs/2311.05232; Lewis, P., Perez, E., Piktus, A., Petroni, F., Karpukhin, V., Goyal, N., Küttler, H., Lewis, M., Yih, W.-t., Rocktäschel, T., Riedel, S., & Kiela, D. (2021). Retrieval-augmented generation for knowledge-intensive NLP tasks. arXiv preprint arXiv:2005.11401. https://arxiv.org/abs/2005.11401; Nguyen, Z., Annunziata, A., Luong, V., Dinh, S., Le, Q., Ha, A. H., Le, C., Phan, H. A., Raghavan, S., & Nguyen, C. (2024). Enhancing Q&A with domain-specific fine-tuning and iterative reasoning: A comparative study. arXiv preprint arXiv:2404.11792. https://arxiv.org/abs/2404.11792; Auffarth, B. (2023). Generative AI with LangChain: Build large language model (LLM) apps with Python, ChatGPT, and other LLMs. Packt Publishing.; Naveed, H., Khan, A. U., Qiu, S., Saqib, M., Anwar, S., Usman, M., Akhtar, N., Barnes, N., & Mian, A. (2024). A comprehensive overview of large language models. arXiv preprint arXiv:2307.06435. https://arxiv.org/abs/2307.06435; Alto, V. (2024). Building LLM powered applications: Create intelligent apps and agents with large language models. Packt Publishing.; Li, J., Hui, B., Qu, G., Yang, J., Li, B., Li, B., Wang, B., Qin, B., Geng, R., Huo, N., … et al. (2024). Can LLM already serve as a database interface? A big bench for large-scale database grounded text-to-sqls. Advances in Neural Information Processing Systems, 36. https://arxiv.org/pdf/2305.03111; Aluri, R. (2024). Text-to-SQL excellence: An evaluation of Sonnet 3.5 and GPT-4o. Waii@Medium. https://blog.waii.ai/text-to-sql-excellence-an-evaluation-of-sonnet-3-5-and-gpt-4o-c52af5206ffc; Amaresh, & Reddy, R. (2024). Hermes: A text-to-SQL solution at Swiggy. Swiggy Bytes Tech Blog@Medium. https://bytes.swiggy.com/hermes-a-text-to-sql-solution-at-swiggy-81573fb4fb6e; https://hdl.handle.net/20.500.12495/14054
Dostupnost: https://hdl.handle.net/20.500.12495/14054
Rights: Attribution-NonCommercial-ShareAlike 4.0 International ; http://creativecommons.org/licenses/by-nc-sa/4.0/
Přístupové číslo: edsbas.39D660E5
Databáze: BASE
Popis
Abstrakt:Los modelos de lenguaje de gran tamaño, o LLMs por sus siglas en inglés, han mostrado capacidades formidables en la generación de texto articulado. Actualmente, son la base de varios tipos de aplicaciones en la escena IA, e.g. chatbots, sistemas QA, recomendadores, etc. Sin embargo, estos LLMs pueden mostrar imprecisiones convincentes sobre temas especializados o recientes, lo que se conoce como ‘alucinaciones’. Por tal motivo, la generación aumentada por recuperación, o RAG por sus siglas en inglés, se ha mostrado útil en la producción de contenido factualmente correcto por parte de los LLMs, al brindarles una base de conocimiento o una ventana contextual verídica, e.g. texto, base de datos, etc. Se desarrolló una aplicación web con los marcos de trabajo Langchain y LangGraph, mediante la cual un usuario hace consultas en lenguaje natural sobre estadística delictiva de Colombia; un modelo como GPT4o interpreta dicha consulta, la traduce en lenguaje SQL, ejecuta la consulta sobre una base de conocimiento especializada construída a partir de sábanas de datos del SIEDCO (Sistema de Información Estadístico, Delincuencial Contravencional y Operativo) de la Policía Nacional de Colombia, recupera la información y la retorna al usuario en forma de gráfico o dataframe, todo lo anterior en una interfaz gráfica sencilla de Streamlit. La aplicación web muestra buenos resultados en general y tiempos de inferencia razonables, con fallos de interpretación ocasionales, permitiendo consultar de una forma interactiva esta información coyuntural de interés general. ; Large Language Models (LLMs) have demonstrated remarkable capabilities in generating articulated text. They currently serve as the backbone of various AI applications—such as chatbots, QA systems, recommendation engines, and more. However, these LLMs can sometimes produce convincingly inaccurate information on specialized or recent topics, a phenomenon known as “hallucinations.” For this reason, Retrieval-Augmented Generation (RAG) has proven useful in ensuring ...