chainerで自然言語処理できるかマン

chainerで自然言語処理を勉強していくブログ

2016-01-01から1年間の記事一覧

Andor et al., Globally Normalized Transition-Based Neural Networks, 2016メモ

googleのstate-of-the-artな係り受け解析器として公開された「SyntaxNet」の論文を眺めてみたメモ。 SyntaxNetの紹介記事は結構あるのに論文の内容に関する記事があまり見当たらないので有識者の解説待っています。 また、以下について、なにか間違いなどあ…

example\ptbがやっていることを確認

example\ptbが何をやっているかをもう少し見ていきたいと思います。 コードを読む:example\ptbを読む - chainerで自然言語処理できるかマン RNNLM example\ptbでは「RNNLM with LSTM」を学習しています。 RNNLMは正式にはRecurrent Neural Network Language…

ptbで学習したモデルを使って文生成

example\ptbを読む - chainerで自然言語処理できるかマンの学習結果のrnnlm.modelファイルを使って、文生成をしてみます。 準備 下記ファイルを同じディレクトリ内に用意しておきます。 ptb.train.txt ptb.test.txt ptb.valid.txt rnnlm.model net.py コード…

XORの学習

chainerのバージョンを1.6.1へあげてみたので、TutorialをやりながらXORの学習を行うMulti-layer Perceptronを書いてみました。 初期値(L.LinearのWがランダム)に依って局所解に落っこちやすいみたいで、損失が十分に小さくなってくれないことが多いです。。…

Seq2Seqメモ

Sequence-to-Sequence(Seq2Seq)学習は、任意長の入力列から任意長の出力列を出力するような学習のことで、Neural Networkの枠組みで扱う方法が提案されて、いい結果が報告されています。雑なメモ。 入力・出力列の例 (自然)言語処理系 機械翻訳(翻訳元->翻訳…

example\ptbを読む

examples\ptbに用意してあるコード(LSTMを使ったRNN言語モデル with dropoutはrecurrentじゃない部分だけに適用)を読んでいきたいと思います。 一応、1.6.1でもコードの変更は無いみたいですが、結果は1.5.0.2のやつです。 サンプル実行 # GPUで学習実行 $ p…