更新时间:2023-05-26 来源:黑马程序员 浏览量:
BERT是谷歌公司提出的预训练模型,主要模拟语言模型和语句预测。由12层transformer的编码器罗列组成,可以进行迁移学习从而满足不同要求任务,也可以用来进行词向量生成。
Bert是一个预训练模型,bilstm是一个模型结构。首先两个结构不同,bert是基于transformer改进而来引入多头注意力机制等,bilstm是一个时间序列的模型包含遗忘门、输入门、输出门、细胞状态。
Bert中利用了attention,在谷歌论文中 attention is all you need
中提出了多头注意力和transformer,bert是由12层transformer的编码器罗列组成。
关于Q,K,V:Q可以理解为一段文本,K 可以理解为关键词提示,V可以理解为模型学习后对文本关键部分的理解。在模型训练时,K
V由编码器给出,Q由解码器给出,模型根据Q以及K学习理解文本的关键含义得到V。
【AI设计】北京143期毕业仅36天,全员拿下高薪offer!黑马AI设计连续6期100%高薪就业
2025-09-19【跨境电商运营】深圳跨境电商运营毕业22个工作日,就业率91%+,最高薪资达13500元
2025-09-19【AI运维】郑州运维1期就业班,毕业14个工作日,班级93%同学已拿到Offer, 一线均薪资 1W+
2025-09-19【AI鸿蒙开发】上海校区AI鸿蒙开发4期5期,距离毕业21天,就业率91%,平均薪资14046元
2025-09-19【AI大模型开发-Python】毕业33个工作日,就业率已达到94.55%,班均薪资20763元
2025-09-19【AI智能应用开发-Java】毕业5个工作日就业率98.18%,最高薪资 17.5k*13薪,全班平均薪资9244元
2025-09-19