Java知识分享网 - 轻松学习从此开始!    

Java知识分享网

Java1234官方群25:java1234官方群17
Java1234官方群25:838462530
        
SpringBoot+SpringSecurity+Vue+ElementPlus权限系统实战课程 震撼发布        

最新Java全栈就业实战课程(免费)

AI人工智能学习大礼包

IDEA永久激活

66套java实战课程无套路领取

锋哥开始收Java学员啦!

Python学习路线图

锋哥开始收Java学员啦!
当前位置: 主页 > Java文档 > 人工智能AI >

大模型LLMS面试宝典 DOC 下载


分享到:
时间:2025-05-30 10:05来源:http://www.java1234.com 作者:转载  侵权举报
大模型LLMS面试宝典
失效链接处理
大模型LLMS面试宝典  DOC 下载

 
 
相关截图:
 


主要内容:
 

Byte-Pair Encoding(BPE)篇

 

1 Byte-Pair Encoding(BPE)   如何构建词典?

1 准备足够的训练语料;以及期望的词表大小;

2 将单词拆分为字符粒度(字粒度), 并在末尾添加后缀“”, 统计单词频率

3 合并方式:统计每一个连续/相邻字节对的出现频率, 将最高频的连续字节对合并为新字词;

4 重复第 3 步, 直到词表达到设定的词表大小;或下一个最高频字节对出现频率为 1。 注: GPT2 、BART 和 LLaMA 就采用了BPE。

 

 

 

Word Piece   

 

Word Piece   与 BPE    异同点是什么?

本质上还是BPE  的思想。与BPE 最大区别在于:如何选择两个子词进行合并  BPE 是选择频次最大 的相邻子词合并;

Word Piece 算法选择能够提升语言模型概率最大的相邻子词进行合并, 来加入词表;  注: BERT 采用了 Word Piece。

 

 

SentencePiece   

 

简单介绍一下 SentencePiece    思路?

把空格也当作一种特殊字符来处理,再用BPE 或者来构造词汇表。 注:ChatGLM 、BLOOM 、 PaLM 采用了SentencePiece。



 


------分隔线----------------------------

锋哥公众号


锋哥微信


关注公众号
【Java资料站】
回复 666
获取 
66套java
从菜鸡到大神
项目实战课程

锋哥推荐