Compare commits
2 Commits
75bc9a76d0
...
4141e09494
Author | SHA1 | Date | |
---|---|---|---|
![]() |
4141e09494 | ||
![]() |
634ce8fff8 |
@ -7,12 +7,16 @@
|
||||
|
||||
% 中文摘要
|
||||
\begin{onecolabstract}
|
||||
\noindent{}\makebox[5em][l]{{\zihao{4}\textbf{摘要}}}{\songti \zihao{-4}本文研究了一种基于文档驱动的自适应编码大模型微调框架。该框架通过分析文档结构自动生成训练样本,实现了模型参数的高效优化。实验结果表明,该方法在多个NLP任务上取得了显著的性能提升,同时减少了人工标注的工作量。}\par
|
||||
\noindent{}\makebox[5em][l]{{\zihao{4}\textbf{关键词}}}{\zihao{-4}\songti 关键词1;关键词2}\par
|
||||
\noindent{}\makebox[5em][l]{{\zihao{4}\textbf{摘要}}}{\songti \zihao{-4}大型语言模型(LLMs)在通用代码生成任务中表现出色,但在处理包含专有知识的企业私有代码库时,其性能往往受限。针对此问题,本文提出并实现了一个基于文档驱动的自适应编码大模型微调框架。该框架的核心创新在于:首先,通过深度解析技术文档(以Markdown格式为例),自动抽取关键信息(如函数签名、类定义、用法示例等)并结合预设模板生成高质量的指令微调(SFT)训练语料;其次,利用参数高效微调技术(如QLoRA)对预训练的编码大模型(以Qwen为例)进行针对性优化,使其精准适配私有库的特定语法、结构和编程范式;最后,整合了包括数据持久化(SQLite+TinyDB)、训练监控(TensorBoard)和交互式前端(Gradio)在内的完整工作流。实验结果表明,该框架能够有效提升大模型在私有库代码生成任务上的准确性和实用性,显著减少对人工标注的依赖,为实现企业级软件开发的智能化和高效化提供了一套自动化、可扩展的解决方案。
|
||||
}\par
|
||||
\noindent{}\makebox[5em][l]{{\zihao{4}\textbf{关键词}}}{\zihao{-4}\songti 大型语言模型; 代码生成; 模型微调; 参数高效微调; QLoRA; 文档驱动; 自动化; 私有库; 自然语言处理; Gradio
|
||||
}\par
|
||||
\end{onecolabstract}
|
||||
|
||||
% 英文摘要
|
||||
\begin{onecolabstract}
|
||||
\noindent{}\makebox[10em][l]{{\zihao{4} \textbf{ABSTRACT}}}{\zihao{-4}This paper proposes a document-driven adaptive fine-tuning framework for large coding models. By analyzing document structures to automatically generate training samples, the framework achieves efficient optimization of model parameters. Experimental results demonstrate significant performance improvements on multiple NLP tasks while reducing manual annotation workload.}\par
|
||||
\noindent{}\makebox[10em][l]{{\zihao{4}\textbf{KEYWORDS}}}{\zihao{-4}Document-driven; Adaptive fine-tuning; Large language models; NLP tasks; Automatic annotation}\par
|
||||
\noindent{}\makebox[10em][l]{{\zihao{4} \textbf{ABSTRACT}}}{\zihao{-4}Large Language Models (LLMs) excel in general code generation tasks, but their performance is often limited when handling enterprise private code repositories containing proprietary knowledge. To address this issue, this paper proposes and implements a document-driven adaptive fine-tuning framework for large code models. The core innovations of this framework are: first, by deeply parsing technical documentation (using Markdown format as an example), it automatically extracts key information (such as function signatures, class definitions, usage examples, etc.) and combines them with preset templates to generate high-quality instruction fine-tuning (SFT) training data; second, it utilizes parameter-efficient fine-tuning techniques (such as QLoRA) to specifically optimize a pre-trained large code model (taking Qwen as an example), enabling it to accurately adapt to the specific syntax, structure, and programming paradigms of the private library; finally, it integrates a complete workflow including data persistence (SQLite+TinyDB), training monitoring (TensorBoard), and an interactive frontend (Gradio). Experimental results demonstrate that this framework can effectively improve the accuracy and practicality of large models in private library code generation tasks, significantly reduce reliance on manual annotation, and provide an automated, scalable solution for intelligent and efficient enterprise software development.
|
||||
}\par
|
||||
\noindent{}\makebox[10em][l]{{\zihao{4}\textbf{KEYWORDS}}}{\zihao{-4}Large Language Models; Code Generation; Model Fine-tuning; Parameter-Efficient Fine-tuning; QLoRA; Document-Driven; Automation; Private Library; Natural Language Processing; Gradio
|
||||
}\par
|
||||
\end{onecolabstract}
|
@ -10,53 +10,39 @@
|
||||
|
||||
\subsection{国内外研究现状}
|
||||
|
||||
人工智能辅助编码,作为软件开发领域的一项前沿技术,近年来取得了显著的进展,并展现出巨大的潜力。随着计算能力的提升和机器学习技术的进步,特别是大型语言模型(LLMs)的兴起,AI正在深刻地改变着代码的编写、测试和维护方式。本文将对人工智能辅助编码的最新进展、应用、潜力、挑战以及未来方向进行全面的概述。
|
||||
\subsubsection{大语言模型微调研究现状}
|
||||
国内外在大语言模型微调领域的研究正经历快速发展。在国内,研究取得了显著进展,例如智源研究院和TeleAI联合开发的“悟道·天鹰”系列模型,其中包括世界上第一个低碳、密集参数的万亿参数语言模型。520亿参数版本的开源和核心技术细节的分享极大地惠及了国内人工智能社区。这些模型在某些中英文基准测试中表现出竞争力,甚至超越了国际模型如Llama3-70B和GPT-4。为解决“幻觉”问题,智源研究院还开发了BGE系列通用语义向量模型。BGE利用检索增强生成(RAG)技术,通过允许大模型访问外部知识来提高其准确性。BGE系列自2023年以来已经过多次迭代,在中英文检索任务中取得了领先成果,并被集成到主要的人工智能开发框架和云服务平台中。
|
||||
|
||||
\subsubsection{人工智能辅助编码的最新进展和趋势}
|
||||
国内外一个显著的趋势是越来越关注小型语言模型(SLM)。SLM在训练成本和计算资源需求方面具有优势。研究表明,在特定领域,经过微调的SLM甚至可以超越更大的通用模型。这对于资源有限的机构和企业尤为重要。清华大学强调了发展小型模型对于中国在全球人工智能领域保持竞争优势的战略重要性。
|
||||
|
||||
人工智能辅助编码的最新进展和趋势表明,AI正逐渐成为开发者的重要伙伴,甚至在某些方面能够独立完成复杂的编程任务。到2025年,人们普遍预计,先进的AI模型将不再仅仅提供代码片段,而是能够自动创建完整的应用程序,而人类只需进行最少的指导。GitHub Copilot 和 OpenAI Codex 等工具正处于这一趋势的前沿,使得编程变得更加快速和便捷。
|
||||
在学术界,清华大学、北京大学、中国科学院等国内顶尖机构积极参与大语言模型的研究和开发。他们的贡献涵盖从核心开发到探索在古籍数字化和医学研究等领域的应用。
|
||||
|
||||
主流模型和技术方面,大型语言模型是当前研究和应用的核心。这些模型,例如 OpenAI 的 GPT 系列、Google 的 Gemini、Anthropic 的 Claude 以及国内的文心一言、通义千问等,通过对海量文本和代码数据的学习,展现出强大的代码生成和理解能力。它们能够理解开发者的自然语言指令,并将其转化为可执行的代码。此外,这些模型还在不断进化,例如,OpenAI 的 GPT-4o 在多项编码基准测试中表现领先,而 Anthropic 的 Claude 和 Google 的 Gemini 也紧随其后。一些开源模型,如 Code Llama,也为研究和应用提供了更多的选择。
|
||||
在国际上,大语言模型微调研究也在快速进展,重点关注长输出大语言模型(Long-Output LLM)等领域。这项研究旨在提高模型生成连贯、高质量长文本的能力,这对于小说写作和复杂推理等任务至关重要。像Suri和LongWriter-6k这样的数据集,以及新的评估基准正在开发中,以支持这一方向。小型语言模型(SLM)的开发和应用在国际上也受到高度关注,这是由对计算成本更低、效率更高的模型的需求驱动的。
|
||||
|
||||
最新的趋势包括 AI 生成代码成为常态,AI 技术深度融入低代码/无代码平台,AI 赋能的测试和调试,AI 优化的性能调优,以及个性化的 AI 驱动的 UX/UI 设计。到2025年,AI 工具将尝试编写完整的模块,主动优化软件,并自动处理调试。此外,AI 还将被集成到 SaaS 和云原生开发中,提升应用程序的自主性、自愈能力和性能优化。预测分析、高度个性化和自学习功能将成为 AI 驱动开发的主导,从而最大限度地减少编码工作并优化性能和用户体验。
|
||||
国际研究人员广泛探索了各种LLM适应技术,包括参数知识适应(例如,DAPT、IT、PL和模型编辑)和半参数知识适应(例如,RAG和基于Agent的系统)。目标是在保留通用知识的同时提高模型在特定任务上的性能。研究还侧重于优化微调策略,研究结果表明,即使少量监督微调数据也能有效激活预训练模型中的知识用于问答等任务。新的微调策略,如自适应对比学习,正在被开发以改善LLM中的知识表示和诚实性。遵循指令仍然是一个关键研究领域,研究如何使LLM更好地理解和执行复杂指令。机械可解释性技术(例如,电路分析)被用于理解微调如何改变模型行为。此外,联合微调正受到关注以解决数据隐私问题。
|
||||
|
||||
值得关注的是,国内的 AI 大模型也在编程辅助领域取得了显著进展。例如,科大讯飞的讯飞星火认知大模型具备代码生成、注释和错误检测能力。百度推出了基于文心大模型的智能代码助手 Comate,提供智能推荐、生成和问答等功能。阿里巴巴的通义千问在代码理解方面也表现出色。这些进展表明,国内 AI 技术正在迅速追赶国际领先水平。
|
||||
尽管取得了进展,国内外研究都面临挑战。在国内,存在对人工智能模型质量而非数量的担忧,许多模型是对现有开源模型的重新开发,缺乏核心技术创新。高质量训练数据的稀缺和数据产业的不发达也构成了重大障碍。“幻觉”问题仍然是一个主要挑战,限制了大模型在需要高精度应用中的可靠性。
|
||||
|
||||
\subsubsection{AI在软件开发的不同阶段的研究与应用}
|
||||
在国际上,长输出LLM面临的挑战包括缺乏高质量的长序列输出数据以及在 extended contexts 中保持连贯性的难度。评估长文本生成质量也很复杂。对于遵循指令,理解否定和抵御对抗性攻击等问题仍然存在。训练和部署大模型的高计算成本驱动了对更小、更高效模型的需求,这带来了自身在保持性能方面的挑战。
|
||||
|
||||
AI 在软件开发的不同阶段都展现出强大的应用潜力。
|
||||
在代码生成和补全方面,AI 工具如 GitHub Copilot 和 ChatGPT 能够实时建议代码片段和补全函数,极大地提高了开发速度。Google 的 Gemini Code Assist 甚至可以分析项目上下文和编程语言,生成相关的代码段,从而自动化重复性任务。百度 Comate 和商汤代码小浣熊等国内工具也提供了类似的功能,支持多种编程语言和集成开发环境。
|
||||
在错误检测方面,AI 驱动的工具能够分析代码以识别错误、漏洞和低效之处,帮助开发者提高软件质量。例如,科大讯飞的讯飞星火可以精准定位代码语法和逻辑错误。IBM watsonx Code Assistant 等工具也具备错误检测和修复建议功能。
|
||||
在代码优化方面,AI 可以提供代码改进建议,以优化性能并降低维护难度。AI 能够检测不良的编码实践,并根据最佳实践提出改进建议,还可以分析并提高代码的效率。
|
||||
在自动化测试方面,AI 可以增强测试自动化,通过更快地检测潜在问题来确保软件的可靠性。例如,AI 可以自动生成并执行测试用例,优化测试覆盖范围,并及早发现错误。商汤代码小浣熊也具备辅助进行单元测试的能力。
|
||||
此外,AI 还在应用开发方面发挥作用。低代码/无代码 AI 平台使得即使没有广泛编程知识的人也能够创建应用程序。这些平台通过 AI 驱动的易用性,降低了软件开发的门槛。
|
||||
值得一提的是,AI 在代码审查自动化方面也取得了进展。例如,CodeAgent 是一种新型的多智能体大型语言模型系统,用于自动化代码审查。它能够检测代码变更与提交消息之间的不一致性,识别潜在的漏洞,验证代码风格的一致性,并提出代码修改建议。
|
||||
中国的新兴趋势和未来方向包括基于大模型的具身智能,智源研究院在这一领域处于领先地位。提示工程和认知工程也越来越重要,旨在利用人工智能模型学习人类认知过程。检索增强生成(RAG)技术是另一个重要趋势,智源研究院的BGE模型展示了通过使用外部知识提高模型性能的有效性。
|
||||
|
||||
\subsubsection{AI辅助编码在不同编程语言和环境中的实际应用和用户反馈}
|
||||
AI 辅助编码工具的实际应用非常广泛,支持多种编程语言和开发环境。这些工具通常以插件的形式集成到流行的集成开发环境(IDEs)中,如 VS Code、IntelliJ IDEA 和 Android Studio。它们支持包括 Python、Java、JavaScript、C++、Go 和 SQL 等在内的 100 多种主流编程语言。
|
||||
用户反馈普遍积极,许多开发者报告了显著的生产力提升。例如,有开发者报告使用 AI 工具后,项目时间缩短了一半,生产力提高了 50\%。RunSignup 团队通过使用基于自身代码库训练的 AI 工具,预计在 2025 年开发效率将提高约 20\%。Salesforce 的 CEO Marc Benioff 也表示,他们的工程生产力提高了 30\%。
|
||||
用户赞赏 AI 工具能够自动化重复性任务,例如生成样板代码、修复语法错误和起草文档,从而使开发者能够专注于更复杂的挑战,如系统设计和算法创新。GitHub Copilot 的用户 Lars Gyrup Brink Nielsen 甚至表示,没有它,他再也不会开发软件了。
|
||||
然而,用户反馈也并非完全没有担忧。一些开发者担心过度依赖 AI 可能会导致对代码库的理解不够深入,从而在未来需要进行修改时更容易引入缺陷。此外,对于 AI 生成代码的质量和安全性也存在一定的疑虑,这将在后续章节中进一步讨论。
|
||||
在国际上,通过量化和剪枝等技术提高LLM的效率仍然是一个关键趋势。增强LLM的可解释性也是一个重要焦点。更复杂、更全面的基准测试(包括针对长输出生成的基准)正在持续开发中。探索Transformer之外的新模型架构和训练范式是另一个重要的未来方向。
|
||||
|
||||
\subsubsection{AI辅助编码在提升开发效率、代码质量和降低成本方面的潜力}
|
||||
AI 辅助编码在提升开发效率、代码质量和降低成本方面展现出巨大的潜力。
|
||||
提升开发效率方面,AI 能够自动化重复性任务,加速开发时间,并提供实时的支持和建议,从而显著提高开发速度。例如,通过自动生成代码片段和脚本,AI 可以大幅减少编码所需的时间,这对于需要在短时间内完成项目的场景尤为重要。
|
||||
提高代码质量方面,AI 可以帮助减少错误,确保代码风格和最佳实践的一致性,并为新手开发者提供学习机会,从而提高整体代码质量。AI 驱动的工具能够检测代码中的错误和低效之处,并提供修复建议。此外,AI 还可以增强测试自动化,确保软件的可靠性。
|
||||
降低成本方面,AI 有潜力通过减少开发团队规模、缩短上市时间以及降低软件开发的门槛来实现成本节约。对于初创企业和中小型企业而言,AI 编码助手可以 democratize 高质量的编码专业知识,从而减少对大型开发团队的需求。
|
||||
然而,值得注意的是,尽管 AI 可以提高生产力,但研究表明,AI 辅助的代码中代码克隆的现象显著增加。这可能对代码的可维护性产生负面影响,并可能导致技术债务的累积。因此,在追求效率的同时,仍需关注代码的长期质量和可维护性。
|
||||
\subsubsection{微调后大语言模型在2B领域的应用现状}
|
||||
微调后大语言模型在2B领域的应用在中国和国际上都在快速发展。在国内,虽然公开研究可能少于技术报告或商业案例,但可以识别出几个应用领域。在客户服务领域,企业正在探索微调LLM以创建更智能、更像人类的客户服务机器人,旨在提高客户满意度和运营效率。这些机器人可以处理复杂查询,提供准确答案,甚至进行一定程度的情感互动。内容生成是微调LLM的另一个应用领域,用于撰写营销文案、产品描述和新闻稿。通过对行业特定或公司数据进行微调,模型可以生成更符合品牌声音和专业标准的内容。北京大学在古籍数字化和理解方面探索LLM代表了在特定2B领域的独特应用。智源研究院的Emu3多模态模型也具有2B应用的潜力,例如为电子商务生成带有图片的商品描述,或在教育和培训中基于图片理解用户查询。总的来说,微调LLM在中国2B领域的应用尚处于早期阶段,但显示出巨大潜力。
|
||||
|
||||
\subsubsection{研究AI辅助编码面临的挑战和未来方向}
|
||||
尽管人工智能辅助编码带来了诸多益处,但也面临着一些重要的挑战,并且未来的发展方向也需要仔细考量。
|
||||
安全性是首要的挑战之一。研究表明,AI 生成的代码可能包含与手动编写的代码相似甚至更高的安全漏洞。这些漏洞包括 SQL 注入、跨站脚本攻击(XSS)等常见安全问题。AI 模型通过复制其训练数据中的模式来工作,如果训练数据包含不安全的编码模式,AI 可能会在生成的代码中重现这些模式。此外,AI 工具可能缺乏对特定应用程序上下文和安全要求的全面理解,从而无法生成完全安全的代码。新兴的攻击手段,例如针对 GitHub Copilot 和 Cursor 的“规则文件后门”技术,也表明 AI 编码助手本身可能成为新的攻击媒介。因此,对 AI 生成的代码进行严格的安全扫描和人工审查至关重要。
|
||||
可解释性是另一个重要的挑战。许多 AI 模型,特别是基于深度学习的模型,本质上是“黑箱”,难以理解其代码生成的过程。这种不透明性使得调试、信任以及识别潜在的偏见或错误变得困难。为了解决这个问题,未来的研究需要侧重于开发更具可解释性的 AI 技术,使用户能够理解 AI 生成代码的原因和逻辑。
|
||||
伦理问题也日益受到关注。AI 辅助编码的广泛应用可能会导致软件开发人员的就业岗位流失。虽然 AI 也可能创造新的工作岗位,但如何确保工人能够顺利过渡到新的角色是一个重要的社会问题。此外,训练数据中的偏见可能会导致 AI 模型生成带有歧视性或不公平的代码。例如,如果训练数据主要来自特定人群编写的代码,AI 可能会偏向于这些编码风格或实践,而忽略其他更优的方案。因此,负责任的 AI 开发实践至关重要,包括确保数据的多样性和公正性,以及在开发过程中考虑到伦理因素。
|
||||
未来的研究方向包括提高 AI 生成代码的准确性和可靠性,增强其对复杂架构上下文的理解,以及开发更好的代码质量评估指标。此外,还需要深入研究 AI 对软件开发的长期影响以及人类开发者角色的演变。人机协作被认为是未来的重要发展方向,即 AI 系统与人类程序员协同工作,共同提高编码效率和软件质量。
|
||||
为了应对这些挑战,需要从多个层面进行努力,包括制定伦理指导原则、加强外部监管、推动国际合作以及保护用户权益。只有这样,才能确保 AI 辅助编码技术朝着负责任和有益的方向发展。
|
||||
在国际上,微调后大语言模型在2B领域的应用更为成熟和广泛。在客户服务领域,各种规模的公司都使用微调LLM构建智能客户支持系统,提供24/7、多语言的帮助。这些系统可以处理各种客户咨询,解决常见问题,并将复杂问题上报给人工客服,从而提高效率和服务质量。内容生成是另一个主要应用领域,微调LLM被广泛应用于营销、广告和媒体行业,以快速生成各种类型的文本内容,如社交媒体帖子、博客文章和广告文案,节省时间和资源。金融机构和咨询公司也利用微调LLM协助撰写行业和分析报告,增强其专业性和深度。值得注意的是,LLM在数据标注和合成方面的应用对于许多需要大量高质量标注数据的2B应用至关重要。通过微调LLM以理解特定的标注指南,可以显著提高数据标注的效率和一致性,加速AI应用的开发。总而言之,微调后大语言模型已广泛应用于国际2B领域,并不断扩展到更多行业和业务流程。
|
||||
|
||||
\subsubsection{总结当前研究现状}
|
||||
当前,人工智能辅助编码正处于快速发展阶段。大型语言模型作为核心技术,在代码生成、补全、错误检测、优化和自动化测试等方面展现出强大的能力。AI 工具已经广泛应用于各种编程语言和开发环境中,并获得了用户的积极反馈,普遍认为能够显著提升开发效率、代码质量并降低成本。
|
||||
然而,研究也揭示了 AI 辅助编码面临的严峻挑战,主要集中在安全性、可解释性和伦理问题上。AI 生成的代码可能存在安全漏洞,模型的决策过程往往难以解释,并且 AI 的应用也引发了关于就业、偏见和责任的伦理担忧。
|
||||
未来的研究方向将侧重于克服这些挑战,例如开发更安全的 AI 模型,提高模型的可解释性,以及制定负责任的 AI 开发和部署框架。人机协作模式被认为是未来的趋势,AI 将成为开发者更强大、更智能的助手。持续的研究和跨领域的合作对于确保 AI 辅助编码技术的健康发展和广泛应用至关重要。
|
||||
\subsubsection{AI辅助编码研究现状}
|
||||
AI辅助编码的研究和应用在中国尚处于起步阶段。虽然一些大型科技公司和研究机构已开始关注这一领域并推出了内部或限量使用的工具,但像GitHub Copilot这样具有广泛影响力的AI编码助手仍然相对稀少。可以推断,国内研究主要集中在使用机器学习和自然语言处理技术帮助开发者提高编码效率、减少错误以及学习新的编程语言或框架。这可能包括代码自动补全、语法错误检查、代码片段推荐以及基于自然语言描述生成代码等功能。然而,由于缺乏直接相关的公开研究信息,国内AI辅助编码工具的具体功能、性能以及对软件开发流程的影响仍需进一步调查和分析。尽管如此,随着中国软件产业的快速发展和对开发效率需求的日益增长,AI辅助编码在国内具有广阔的应用前景。
|
||||
|
||||
在国际上,AI辅助编码的研究和应用已取得了显著进展。GitHub Copilot、Tabnine、IntelliCode等AI编码工具被开发者广泛使用。这些工具通常在大规模代码语料库上进行训练,能够提供智能代码补全、错误检测、代码建议和代码生成。研究表明,这些工具可以显著提高开发者的编码速度和效率,减少代码错误,并帮助开发者更好地理解和使用各种编程语言和框架。国际研究着重于进一步提升AI编码工具的智能化水平,例如使其能够理解更复杂的代码逻辑,更好地处理上下文信息,生成更符合开发者意图的代码,以及与各种开发环境和工作流程更深入地集成。此外,还在研究AI编码工具对软件开发流程、代码质量以及开发者学习曲线的影响。总的来说,AI辅助编码在国际上已成为一个成熟且持续发展的研究领域,正在深刻改变软件开发模式。
|
||||
|
||||
\subsubsection{提示工程研究现状}
|
||||
提示工程是一门新兴技术,随着大语言模型的普及在中国受到越来越多的关注。上海交通大学的研究人员已经认识到提示工程在未来人工智能应用中的重要性。可以推断,国内的研究和实践主要集中在探索如何设计更有效、更精准的自然语言提示来引导大语言模型生成期望的输出。这可能包括研究不同的提示技巧,例如使用清晰具体的指令、提供相关的上下文信息以及利用少量样本提示。一些国内开发者和企业也开始在实际场景中应用提示工程,例如优化提示以提高智能客服系统的响应质量,增强内容生成的连贯性和相关性。然而,与国际研究相比,中国在提示工程方面的系统性研究和理论框架可能仍处于早期发展阶段。随着大语言模型技术的不断进步及其在中国应用范围的扩大,提示工程有望成为一个越来越重要的研究和实践领域。
|
||||
|
||||
在国际上,提示工程已成为一个热门研究领域。研究人员广泛探索了各种提示技巧和策略,例如零样本提示、少量样本提示和思维链提示,并研究了它们对大语言模型输出质量的影响。同时,出现了多个提示工程框架和工具,旨在帮助用户更有效地设计和管理提示。国际研究还侧重于理解为什么某些提示能产生更好的结果以及如何自动生成或优化提示。此外,还在进行一些关于提示压缩的研究以提高效率。总的来说,国际上在提示工程方面的研究已经形成一定的体系,并正在持续发展和完善,为更好地利用大语言模型提供了重要的理论基础和实践指导。
|
||||
|
||||
\subsection{本文结构安排}
|
||||
|
||||
|
Loading…
x
Reference in New Issue
Block a user