ep21: BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
Leading NLP Ninja - A podcast by jojonki
Categories:
第21回では,Googleによる双方向コンテキストを獲得した言語モデルBERTの解説をしました. 今回紹介した論文はこちらのissueで解説しています. github.com/jojonki/arXivNotes/issues/199 番組への支援は,こちらからお待ちしております.www.patreon.com/jojonki --- Support this podcast: https://podcasters.spotify.com/pod/show/lnlp-ninja/support