我们为什么需要“提示词工程” Prompt Engineering?
为什么需要“提示词工程”? 可迁移:好提示可以模板化,跨团队复用,节省试错成本。 可评测:输出质量、准确率、Latency、Token 使用量都可量化。 可迭代:结合自动化测试 / RAG / 函数调用,能够形成 Prompt → Model → 评估 → 改进 的闭环。 对比优势明显:在企业/科研场景,同样的大语言模型,优化提示能把正确率从 60 % 提到 85 %+,直接影响业务效果与成本 关于大语言模型的一些误解 误解 现实 模型很强 → 直接问就行 LLM 仍然是“条件生成器”,靠输入的 条件(提示词)决定输出;如果条件含糊、缺失,模型只能猜,从而出现跑题、格式错乱、幻觉。 只要数据大……
继续阅读»»»