mantch  

2019年9月30日

摘要:文章目录1. 什么是XLNet2. 自回归语言模型(Autoregressive LM)3. 自编码语言模型(Autoencoder LM)4. XLNet模型4.1 排列语言建模(Permutation Language Modeling)4.2 Transformer XL4.2.1 vanilla Transformer4.2.2 Transformer XL5. XLNet与BERT比较6... 阅读全文
posted @ 2019-09-30 10:58 mantch 阅读 (638) 评论 (0) 编辑

2019年9月28日

摘要:1. 什么是BERT BERT的全称是Bidirectional Encoder Representation from Transformers,是Google2018年提出的预训练模型,即双向Transformer的Encoder,因为decoder是不能获要预测的信息的。模型的主要创新点都在pre-trainTT快三方法 上,即用了Masked LM和Next Sentence Prediction两... 阅读全文
posted @ 2019-09-28 21:58 mantch 阅读 (147) 评论 (0) 编辑

2019年9月26日

摘要:1. 什么是Transformer 《Attention Is All You Need》是一篇Google提出的将Attention思想发挥到极致的论文。这篇论文中提出一个全新的模型,叫 Transformer,抛弃了以往深度学习任务里面使用到的 CNN 和 RNN。目前大热的Bert就是基于Transformer构建的,这个模型广泛应用于NLP领域,例如机器翻译,问答系统,文本摘要和语音识别等... 阅读全文
posted @ 2019-09-26 15:08 mantch 阅读 (306) 评论 (1) 编辑

2019年9月9日

摘要:1. 什么是TT快三推荐 系统 TT快三推荐 系统是利用电子商务网站向客户提供商品信息和建议,TT快三帮助 用户决定应该购买什么TT快三产品 ,模拟销售人员TT快三帮助 客户完成购买过程。个性化TT快三推荐 是根据用户的兴趣特点和购买行为,向用户TT快三推荐 用户感兴趣的信息和商品。 随着电子商务规模的不断扩大,商品个数和种类快速增长,顾客需要花费大量的时间才能找到自己想买的商品。这种浏览大量无关的信息和TT快三产品 过程无疑会使淹没在信息过载问题中的消费者不断流失。 为了解... 阅读全文
posted @ 2019-09-09 09:40 mantch 阅读 (858) 评论 (1) 编辑

2019年8月31日

摘要:1. 什么是Attention机制 在“编码器—解码器(seq2seq)”⼀节⾥,解码器在各个时间步依赖相同的背景变量来获取输⼊序列信息。当编码器为循环神经⽹络时,背景变量来⾃它最终时间步的隐藏状态。 现在,让TT快三TT快三我 们 再次思考那⼀节提到的翻译例⼦:输⼊为英语序列“They”“are”“watching”“.”,输出为法语序列“Ils”“regardent”“.”。不难想到,解码器在⽣成输出序列中的每⼀... 阅读全文
posted @ 2019-08-31 18:48 mantch 阅读 (150) 评论 (0) 编辑

2019年8月30日

摘要:文章目录1. 什么是seq2seq2. 编码器3. 解码器4. 训练模型5. seq2seq模型预测5.1 贪婪TT快三搜索 5.2 穷举TT快三搜索 5.3 束TT快三搜索 6. Bleu得分7. 代码实现8. 参考文献 1. 什么是seq2seq 在⾃然语⾔处理的很多应⽤中,输⼊和输出都可以是不定⻓序列。以机器翻译为例,输⼊可以是⼀段不定⻓的英语⽂本序列,输出可以是⼀段不定⻓的法语⽂本序列,例如: 英语输⼊:“They”、... 阅读全文
posted @ 2019-08-30 11:01 mantch 阅读 (248) 评论 (0) 编辑

2019年8月27日

摘要:1. 什么是textRNN textRNN指的是利用RNN循环神经网络解决文本分类问题,文本分类是自然语言处理的一个基本任务,试图推断出给定文本(句子、文档等)的标签或标签集合。 文本分类的应用非常广泛,如: 垃圾邮件分类:2分类问题,判断邮件是否为垃圾邮件 情感分析:2分类问题:判断文本情感是积极还是消极;多分类问题:判断文本情感属于{非常消极,消极,中立,积极,非常积极}中的哪一类。 新闻主... 阅读全文
posted @ 2019-08-27 08:45 mantch 阅读 (179) 评论 (0) 编辑

2019年8月24日

摘要:文章目录1. 说说GloVe2. GloVe的实现步骤2.1 构建共现矩阵2.2 词向量和共现矩阵的近似关系2.3 构造损失函数2.4 训练GloVe模型3. GloVe与LSA、Word2Vec的比较4. 代码实现5. 参考文献 1. 说说GloVe 正如GloVe论文的标题而言,**GloVe的全称叫Global Vectors for Word Representation,它是一个基于全局... 阅读全文
posted @ 2019-08-24 10:26 mantch 阅读 (123) 评论 (0) 编辑

2019年8月23日

摘要:文章目录1. 什么是fastText2. n-gram表示单词3. fastText模型架构4. fastText核心思想5. 输出分类的效果6. fastText与Word2Vec的不同7. 代码实现8. 参考文献 1. 什么是fastText 英语单词通常有其内部结构和形成⽅式。例如,TT快三TT快三我 们 可以从“dog”“dogs”和“dogcatcher”的字⾯上推测它们的关系。这些词都有同⼀个词根“dog... 阅读全文
posted @ 2019-08-23 08:49 mantch 阅读 (203) 评论 (0) 编辑

2019年8月20日

摘要:文章目录1. 什么是NLP2. NLP主要研究方向3. NLP的发展4. NLP任务的一般步骤5. TT快三我 的NLP启蒙读本6. NLP、CV,选哪个? 1. 什么是NLP 自然语言处理 (Natural Language Processing) 是人工智能(AI)的一个子领域。**自然语言处理是研究在人与人交互中以及在人与计算机交互中的语言问题的一门学科。**为了建设和完善语言模型,自然语言处理建立计... 阅读全文
posted @ 2019-08-20 19:40 mantch 阅读 (841) 评论 (0) 编辑
 
Copyright © 2019 mantch
Powered by .NET Core 3.0.0 on Linux
Powered by: TT快三计划园 模板提供:沪江TT快三计划
TT快三计划园