Voidful Notes


  • Home

  • Categories

  • About

  • Archives

  • Tags

  • WebPage

實作 少量資料,高效率 一個找新詞的方法

Posted on 2019-09-03 | In Implement |

最近有一篇論文,探討現在中文NLP還需不需要斷詞
《Is Word Segmentation Necessary for Deep Learning of Chinese Representations? 》
發現在深度學習中 以字建立的模型 比 以詞建立的模型 結果要好。但詞模型的表現不好,有原因是因爲沒有解決Out of vocabulary word(OOV,新詞)的問題。加上現在還有應用是基於詞來分析的 - 比如說討論區熱點,詞雲等……
可見,斷詞裏面新詞的問題依然存在。有沒有一個簡單有效的方法找到新詞呢?成爲本文想要探討的問題,提出一個新的方法,有以下改善:

  • 資源占用低
  • 不需大規模語料就能得到理想效果
  • 不需考慮閥值的設置

文末也會有code,希望可以一起改善。

Read more »

解析詞向量 4 word2vec的本質和Glove

Posted on 2019-08-28 | In WordEmb101 |

這篇文章講的是:

  • 從現象看本質 - word2vec也是PMI矩陣分解
  • Glove - 從另外的角度思考
Read more »

解析詞向量3 word2vec有趣的特性

Posted on 2019-08-02 | In WordEmb101 |

這篇文章講的是:

  • word2vec 向量大小的含義
  • word2vec 的向量方向
  • King - men + woman = Queen ?
  • fastText 介紹
Read more »

解析詞向量2 word2vec訓練細節

Posted on 2019-07-25 | In WordEmb101 |

這篇文章講的是:

  • word2vec 的訓練和優化
  • 選哪些訓練方式
  • 訓練出來的兩個詞向量有什麽差別,可以怎麽用
Read more »

解析詞向量1 word2vec是怎麼一步步想出來的

Posted on 2019-07-17 | In WordEmb101 |

技術都不是突然之間出現的
在外面熟悉的word2vec誕生之前,到底發生了什麽?
是什麽引導到word2vec的提出呢?
在這裏,我們一步步看下這段歷史的過程,代入設計者的思維,對於之後的理解相信會有不少幫助~

Read more »

解析詞向量 - 目錄

Posted on 2019-07-15 | In WordEmb101 |

最近這段時間,新出了不少很強大的NLP模型,比如elmo bert gpt xlnet什麼的
這些模型刷著各種榜單,萬用又強大
但當你跑去實作,就會悲慘地將batch size越調越小。也感慨自己3GB的1060實在是雞肋,硬件資源不足之下,可以說是與這些酷炫模型緣分不足。
其實在資源的限制下,我們還有不少的方法也可以達到不錯的效果,比如之前很熱門的Word2Vec

Read more »

Bert 怎麽用?bert各種使用上的疑問和細節

Posted on 2019-06-05 | In Implement |

Bert出來好一段時間,使用過程中或多或少會有一些疑問:

  • 如果不做finetune而是傳統的方法會怎麼樣?
  • 只拿最後一層真的是最好的選擇嗎?
  • bert在中文上怎麼樣可以做到更好?
  • 超過512個字應該怎麼樣處理?
  • bert可以做文本生成嗎?
  • Bert做多任務?
  • Bert可以用在什麽Task上面呢?
  • MaskLM和NextSentencePrediction兩種訓練方式應該怎麼關聯到我們的任務上?

在此希望對這些問題探討看看~

Read more »

Beam search之後,讓文本生成更加靈動的解碼方法

Posted on 2019-05-19 | In Paper Reading |

來自Allen AI 的 The Curious Case of Neural Text Degeneration
來自Huggingface 的 transfer-learning-conv-ai

Read more »

Multi-Task的最高境界是沒有Multi-Task? 解析OpenAI GPT2背後的想法

Posted on 2019-05-13 | In Paper Reading |

來自OpenAI GPT-2 的 Language Models are Unsupervised Multitask Learners
來自OpenAI的 Generative Modeling with Sparse Transformers

上一文中介紹Bert Multi-Task上的進展(有興趣可以去看看 link )
此後,進一步看multi-task在NLP上面的各種case,發現OpenAI的GPT和其後續有著十分驚艷的想法

Read more »

語料不夠怎麼辦,Bert在多任務上預訓練說不定有用

Posted on 2019-05-06 | In Paper Reading |

Multi-Task Deep Neural Networks for Natural Language Understanding

這篇paper主要是在bert之上再做的改進

Read more »
1 2 3
Voidful

Voidful

27 posts
6 categories
10 tags
RSS
GitHub
© 2020 Voidful
Powered by Jekyll
Theme - NexT.Mist