グラフを用いた機械翻訳結果のリランキング

昼、橋本さん公聴会。最近言語教育勉強会をやっているので、オノマトペの学習が留学生には難しい、という話はなかなか興味深かった。

午後、DMLA勉強会で

  • Andrei Alexandrescu and Katrin Kirchhoff. Graph-based Learning for Statistical Machine Translation. HLT/NAACL-2009.

を紹介。フレーズベースの統計翻訳の出した結果をリランキングするのを、ラベル伝播を使ってやりました、というストーリー。@syou6162 さんが概要をまとめられたそうなので、興味のある方はそちらを参照されたし。

BLEU が2.6ポイント上がるというのは相当なので、なんでこんなことになるのかなぁ、ということを考えてみると、分野適応している問題設定と同じだからだと思う。

論文にも書かれているのは、出力としてよく出てきそうな表現を上位にランキングするとよい(いま普通の機械翻訳はテスト1文1文を独立して翻訳しており、データ集合の情報を使っていない)ということで、この部分が工夫しているところ。よく出てくるからといって正解ではなく、赤信号をみんなで渡って全滅する可能性もあるが、うまく行くらしい。

普通の分野適応の設定では元言語の言語モデルと翻訳モデル、あるいはその両方を分野ごとに作って翻訳するのだが、恐らくこの論文がやっているのは目的言語の言語モデルを作っているようなことに相当する。テスト文に対する翻訳文の言語モデルがあれば簡単に作れるのだが、テスト文に対する翻訳文は存在しないので、ベースラインの翻訳器で翻訳を大量に生成しておいて、それをコーパスだと思って翻訳文の言語モデルを作成する、という感じ。

式を見た感じ、上記の論文で紹介されている手法だと重要度の高いノードにドリフトしていくような気がするので、なんでだろうと思ったのだが、重要度の高いノードに高いランクをつける=翻訳文として出てきやすい文のランクを上げる(必ずしも入力文との関連度が高いわけではなくても)、つまり上記のような効果が達成されているのではなかろうか?

グラフを作るときも単純に作るとどの文からも類似度が高い文を上位にランクしてしまうが、うまく枝狩りすることで関連度がある程度以上のノードだけ残してエッジを切っておき、あとはその中で重要度に従って選択している、という感じではないかな〜

夕方、週末大学が停電なので研究室のサーバが停まる。これで研究室の仕事は週明けまで放置かな……。

新しい MacBook Air 登場、ということで、

Apple Store で新しい MacBook Air が注文できるようになったそうで、11インチの MacBook Air がほしい……。13インチは大きいと思っていたし、軽いとはいえ1.3Kg は不満だったし、USBポートが1つしかないのもどうかと思っていたし、それらが全部解消されている。問題は、アカデミック割引を入れれば10万円切っている値段(消耗品扱い)にも関わらず、すでに今年使える研究費がないことであり……(汗)