| 失效链接处理 | 
| 
      大模型 RAG 经验面 PDF 下载 
	相关截图: 
![]() 主要内容: 一、LLMs 已经具备了较强能力了,存在哪些不足点? 
 
		在 LLM 已经具备了较强能力的基础上,仍然存在以下问题: 
	
		• 幻觉问题:LLM 文本生成的底层原理是基于概率的 token by token 的形式,因此会不可避免地 
	
		产生“一本正经的胡说八道”的情况; 
	
		• 时效性问题:LLM 的规模越大,大模型训练的成本越高,周期也就越长。那么具有时效性的数 
	
		据也就无法参与训练,所以也就无法直接回答时效性相关的问题,例如“帮我推荐几部热映的电 
	
		影?”; 
	
		• 数据安全问题:通用的 LLM 没有企业内部数据和用户数据,那么企业想要在保证安全的前提下 
	
		使用 LLM,最好的方式就是把数据全部放在本地,企业数据的业务计算全部在本地完成。而在 
	
		线的大模型仅仅完成一个归纳的功能; 
	
 
		二、什么是 RAG? 
	
			RAG(Retrieval Augmented Generation, 检索增强生成),即 LLM 在回答问题或生成文本时,先 
		
			会从大量文档中检索出相关的信息,然后基于这些信息生成回答或文本,从而提高预测质量。 
		 | 
    




    
苏公网安备 32061202001004号


    