Day 20 RNN 2 实际使用和其他应用
在实际的学习(training)过程中是如何工作的?
step 1 Loss
step 2 training
![image-20240417150009011](https://img-blog.csdnimg.cn/img_convert/1787a99b44b41ac03c63054528991a0b.png)
Graindent Descent
反向传播的进阶版 – BPTT
![image-20240417150400307](https://img-blog.csdnimg.cn/img_convert/dc0c050589075a484cbb65c3faffbd16.png)
CLIpping 设置阈值~ 笑死昨天刚看完关伟说的有这玩意的就不是好东西
![image-20240417150712351](https://img-blog.csdnimg.cn/img_convert/a6abaed8c021adf115cf5ac8fa68dbfe.png)
Why?出现了梯度steep or flat
![image-20240417151331381](https://img-blog.csdnimg.cn/img_convert/f9f4bc26c295bd188928c936590dbdef.png)
这里为什么不可以用Adagrad(RMS)或者 Adam(RMSPROP + momentum)?
![image-20240417155039930](https://img-blog.csdnimg.cn/img_convert/304925636d546ade7a570b44acfceae5.png)
LSTM 可以解决梯度平坦的问题,但是不能解决steep,所以可以放心的将学习率设置的小一点;原理如下,凑乎看
![image-20240417160346983](https://img-blog.csdnimg.cn/img_convert/f59197bd138f6c3eb1b2513121865c77.png)
![image-20240417160542885](https://img-blog.csdnimg.cn/img_convert/34b75a183f5bd1ee25d0b7d3cdbbe41f.png)
根据上面的思想,那么我可能需要保证我的forget gate 大多数情况下是开启的 (保留记忆)
Grated Recurrent Unit (GRU)Simpler than LSTM
联动forget 和 input gate 2选1
只有清除记忆新的Input 才能被放入
![image-20240417160949716](https://img-blog.csdnimg.cn/img_convert/0876f1797a562ebea5bf2c8ec60df0ed.png)
More Application
一到多
![image-20240417161314773](https://img-blog.csdnimg.cn/img_convert/7542fc2e62507d797c57251c0903aa97.png)
![image-20240417161426197](https://img-blog.csdnimg.cn/img_convert/7c8739ce0ae303d8a210346c91409137.png)
多到多(outputer is shorter) – 语音辨识 (贝叶斯)
![image-20240417161710949](https://img-blog.csdnimg.cn/img_convert/8c53570a5a79e66f3b568a8f16b623c5.png)
![image-20240417161809982](https://img-blog.csdnimg.cn/img_convert/917009cdc633cab7c6748053c7de839d.png)
![image-20240417161926812](https://img-blog.csdnimg.cn/img_convert/b82a936c57f0b9818d277ed654f6acba.png)
有一个好的穷举算法
![image-20240417162303640](https://img-blog.csdnimg.cn/img_convert/08a1f063113bc1651050a03d63cee654.png)
多到多(no LImitation)
翻译
![image-20240417162822999](https://img-blog.csdnimg.cn/img_convert/e6575b955f287dbc8cd54d27d9d22260.png)
![image-20240417162911722](https://img-blog.csdnimg.cn/img_convert/0c6ba1b16ca68203a25ad1a67e4a0676.png)
![image-20240417163021363](https://img-blog.csdnimg.cn/img_convert/ddaa3cbb7e52e9c87bf3a80b36f6c2e0.png)
![image-20240417163038801](https://img-blog.csdnimg.cn/img_convert/e53b5bc7b8a96c885d85139eaf737335.png)
????没看懂这里,这个断是在哪里加入呢;假设在训练过程中添加了这个symbol
![image-20240417163305287](https://img-blog.csdnimg.cn/img_convert/ada196455a85f59e5425eec7455651cd.png)
不仅仅 是sequence
![image-20240417163703240](https://img-blog.csdnimg.cn/img_convert/d0c50f2ed23f1c7c8733ba0b23b24e64.png)
使用LSTM做句法解析时,如果输入句子有语法错误,如缺少括号,这种错误通常不会直接影响LSTM模型的解析过程,因为LSTM并不是基于规则的解析器,而是基于学习的模型。它通过从大量的标注数据中学习语言的统计特征,来预测句子的结构
![image-20240417163954827](https://img-blog.csdnimg.cn/img_convert/25fe582ec806b696fe107d1acc5cdeed.png)
什么是词袋模型?
词袋模型(Bag of Words,简称BOW)是一种常见的文本表示方法,用于自然语言处理和信息检索领域。这种模型忽略了文本中词语的顺序和语法、句法元素,仅仅将文本(如一句话或一篇文章)转换为一个集合,其中包括了词汇表中每个词的出现次数。可以将其想象为一个词的“袋子”,只记录词的存在与频率,而不考虑其出现的顺序。
词袋模型的步骤通常包括:
- 分词:将文本分割成词语或标记。
- 构建词汇表:从所有文本数据中提取出不同的词语,构成一个词汇表。
- 计数:对于每一个文本,计算词汇表中的词语在该文本中出现的次数。
可以把一个document 变成一个 vector
这个听不懂,让gpt试试
《A Hierarchical Neural Autoencoder for Paragraphs and Documents》探讨了如何利用长短期记忆网络(LSTM)自编码器生成长文本。核心思想是通过建立层级LSTM模型,将文本(如段落或文档)编码成向量,然后再解码重构原文本。这种层级模型能在不同层次上捕捉文本的组合性,如单词间、句子间的关系,从而在重构时保持文本的语义、句法和篇章的连贯性。实验表明,这种模型能有效重构输入文档,并且在维持原文结构顺序方面表现良好。
层级LSTM(Hierarchical LSTM)模型通过构建不同层级的LSTM结构来处理文本数据,其中每个层级对应文本的不同组成部分(如词、句子和段落)。在编码阶段,每个词首先通过词级LSTM(LSTM_word_encode)转换为词向量,这些词向量再通过句子级LSTM(LSTM_sentence_encode)组合成句子表示。同理,所有句子表示再通过一个更高层级的LSTM转换为整个文档或段落的表示。解码阶段与此类似,但过程是逆向的,从文档表示开始逐步解码出句子和词。这种层次化方法有助于模型捕捉文本数据的内在结构和复杂性。
![image-20240417183436080](https://img-blog.csdnimg.cn/img_convert/ac353da5a7e4036b63a4e6ae82046022.png)
词语 – 句子 - 文档 反解回;
感觉这个可以拿来试试做论文翻译
![image-20240417184143320](https://img-blog.csdnimg.cn/img_convert/ded055eaa60aa6964ddd09b48758ae5c.png)
![image-20240417184328594](https://img-blog.csdnimg.cn/img_convert/72de44eca0c7b6004b4f36ee1395dad7.png)
如果能处理视频就好了,这样监控就再也不用人去看了
![image-20240417184431113](https://img-blog.csdnimg.cn/img_convert/7344a14c31ee2b8024b3ba93a2efb29e.png)
![image-20240417184549999](https://img-blog.csdnimg.cn/img_convert/ea3c500f1d98ecbc7755be309b25deb4.png)
![image-20240417184630864](https://img-blog.csdnimg.cn/img_convert/ded47ad95b05efd91883ea9a35a7430d.png)