ACL 2013 2日目: 意味解析と談話解析の融合

本会議は2日目だが、自分的には最終日。

朝は Industrial Lecture といって何かと思いきや、Facebook のグラフサーチの話である。けっこうおもしろい。個人的に興味深かったのは質疑応答で Ken Church が「どういう情報を集めているのか?どうやってユーザの意図を推測しているのか?」という質問をしていて、それに対して「検索クエリはもちろん、あらゆるログを集めている。ほとんどのクエリは単純なもので、複雑なものはロングテールなのだが、そういったロングテールのクエリログがあるからこそ高度な検索が可能になっているというのがおもしろいところ。あと、ユーザの意図を推定するのは難しくて、たとえばものすごい勢いで画像をスクロールしているのは、結果に満足して全部見たいと思ってスクロールしているのか、それとも満足いかないからスクロールしているのか分からなかったが、その後の行動を分析してみると、画像を激しくスクロールしたあとは別のクエリで検索していることが判明したので、いまは画像のスクロールは検索結果が満足できなかったという教師データとして扱うようにしている」という議論。

自分も検索クエリログや検索クリックスルーログを使ってきたので、これが宝の山であるというのは激しく同意。小規模だと使いにくいのだが、大規模にあると本当にいろいろできるのである (ただし、どう解釈するかが重要で、上に書いたように解釈するためには背後のユーザの行動を見ないといけない)。これ、分かってくれる人が (特に大学の人には) あまりいないのだけど、こうやって ACL で取り上げられるというのは意義深いものである。

その後、ベストペーパーとベストスチューデントペーパーの表彰。候補を Pascale Fung さんが読み上げるのだが、ものすごい量。[twitter:@Yuki_arase] さんの論文も候補だったらしい :) 結局ベストペーパーは動画の文生成。

  • Haonan Yu and Jeffrey Mark Siskind. Grounded language learning from videos described with sentences. ACL 2013.

自分も今回英語の選択問題生成の研究を発表したが、これから5年10年で取り組むチャレンジとしては言語生成課題があると思っていて、この流れにも納得。問題を解く方はいわゆる東ロボ (東大入試に合格する人工知能) のようにある程度リサーチプログラムが成り立つが、作る方はまだまだフロンティアで、探索空間が膨大なので自分が生きている間にできるかどうか分からないくらいである (笑)

午前中のセッションはノマド状態でふらふら。半分聞き逃してしまったが、以下の話が自分のやりたいことにマッチしていた。

  • Egoitz Laparra and German Rigau. ImpAr: A Deterministic Algorithm for Implicit Semantic Role Labelling. ACL 2013.

これは意味役割付与タスクで複数の述語が同じ項を共有するという現象をモデル化する、というもので、特に同じ述語 (動詞の形で使われていても、名詞の形で使われていても) では同じ項を取りやすい、という性質に着目している。具体的な実装の部分はいろいろとヒューリスティックな部分があるのだが、こういう現象があることは前から分かっていて、実際やってみて性能も向上した、というのは評価できる。同じ述語でなくても項の共有があるし、このように決定的なモデルでやるよりは全部同時解析するようなモデルのほうがきれいだと思うのだが (というか去年からずっとそういうことをやりたいと思っているのだが)、コンセプトとしてこういう現象があってちゃんと考慮すればよくなりますよ、ということを最初に示したという点で、先にやられちゃったなぁ、という感じである。

昼から少し抜けて観光へ。3時間あればソフィア市内は観光できると言われていたので、歩いて出発。持っていた地図がブルガリア語でしか書かれていないので難儀したが、なんとか文字のアライメントを取って解読したりする。やはり自分で少しでも歩くと違うなぁ。最終日にして初めてソフィアに来た感があった。

こちらは地元の観光向けではない教会で、たまたま神父さんたちが歩いていた。教会の中は撮影禁止だったが、地元の経験な信者の人たちが鈴なりで、額縁入りのマリアの絵に口づけしていたり、十字を切っていたり、(イエスキリストの肉である) パンを食べていたり、外国人観光客向けの教会とは違う雰囲気であった。

こちらも別の地元の教会で、中世の建造物のようだが、中には数名しか人がおらず、外が公園のようになっていて、話したり昼ご飯を食べたりする人たちがたくさんベンチにいて賑わっていた。自分もベンチでサンドイッチをほおばっていると、よくわからない草をしきりに渡して恵んでくださいと頼んでくるおばあさんがいて、ちょっと困ってその場を立ち去った。よくよく見てみると、芝生で浮浪者風の人がいたりだとか、公園を歩いているとおじさんがなにかブルガリア語で (たぶん恵んでくれというような意味) 話しかけてきたりだとか、都会だから仕方ないのかもしれないが、そんなに裕福な国でもないのかなと思ったりする。(もっとも、平日の昼間っから相当な数の人が外をふらふらしていて、この国はちゃんと仕事があるのだろうか、と心配になってしまったが)

一応市内で一番大きな教会も行ってみたが、特に感慨もなく。帰りがけに通った公園で、社会主義闘争の戦勝碑のようなものがところどころにあったり、政治家を風刺する張り紙がべたべた貼られていたり、不思議な感じであった。旧「東側」の国は2007年の ACLチェコプラハに行ったきりであるが、プラハよりは「西側」のような町並みのようでいて、ところどころに社会主義国家の面影があったりして (閑散としていて人は落ち着いているが、基本的に覇気はない)、不思議な感じであった。

午後は Lexical Semantics and Ontologies のセッションに出てみる。

  • Mohammad Taher Pilehvar, David Jurgens, and Roberto Navigli. Align, Disambiguate and Walk: A Unified Approach for Measuring Semantic Similarity. ACL 2013.

に興味があったのだが、トークはあまりおもしろくなかった。意味的類似度を測るのに構造のアライメントを取ってアライメントが最大になるような解釈を選択する、ということなのだが、論文を読んでみないと分からないような……。[twitter:@conditional] さんの人工知能学会全国大会の発表で知った Maximum Relatedness Disambiguation (Pedersen 2005) という手法 (自分の理解では、Yarowsky の one sense per discourse の制約を1文を対象に適用したような手法) とアライメントを組み合わせたような感じだろうか?

午後のセッション2個目もあちこち出てみたが、文法誤り訂正の研究をしているものとして楽しみにしていた

  • Yuanbin Wu and Hwee Tou Ng. Grammatical Error Correction Using Integer Liner Programming. ACL 2013.

がいまいちでがっかり。複数の関連する誤りを同時に解くことでよくなるだろうというのは直観的に分かるのだが、例が変だし説明もおかしい。A cat sit on the mat. をパイプラインで処理したら、名詞の数の誤りか主語動詞の一致の誤りのどちらかを先に直してしまうので、A cat sits on the mat. か Cats sit on the mat. のどちらかにしか直せないが、提案手法はそれらを同時に考慮できるから直せる、と言っているのだが、この例の場合、どちらに直すべきかは文脈によって決まるものであって、パイプラインだから直せない、同時処理だから直せる、というような性質のものではない。甲南大の永田さんもそのような質問 (本当にこのように同時処理するとよくなるような実例が、学習者コーパスの中にあるのか) をされたのだが、どうも発表者が質問の意味を理解してくれなかったのか、明後日の方向の回答であった。筆頭著者がビザの問題かなにかで来られなかったせいで、本当にデータを見ていた人が発表できなかった (そういう事例があったかどうかが分からない) のが残念であった。

夕方はショートペーパーの口頭セッションで、[twitter:@tuxedocat_tw] くんの発表。

  • Yu Sawai, Mamoru Komachi and Yuji Matsumoto. A Learner Corpus-based Approach to Verb Suggestion for ESL. ACL 2013.

昨日の [twitter:@keiskS] くんの動詞選択の穴埋め問題の自動生成と対になるような研究なのだが、こちらは英語学習者のコーパスを用いて動詞選択の誤りの自動訂正 (というか候補推薦) をするというお話。これまた先行研究では学習者のコーパスを用いた研究がなかったのだが、大規模な英語学習者のコーパスを使ったら、候補推薦が相当よくなったのである。結局冠詞や前置詞のように選ぶ単語が限られている場合と異なり、動詞や名詞のように単語数が多くカバー率が問題になるようなケースでは、どのような候補を実際に間違えるのか、という知識を使うのがとても効果的である、というのがポイントなのであった。そして、これは Lang-8 から抽出した大規模な英語学習者コーパスを使えるようになった2011年以降でないと分からないことであった。とはいえ、これまでは、専門家がアノテーションした小規模な学習者コーパスしか使えなかったため、使わないほうが性能が高かったので、むしろあえて使われてこなかった、というのが真相かなと思う。

動詞選択誤りはこれ以上よくしようとするなら教師なし手法と組み合わせるのだろうが、学習者コーパスを使った性能向上と同じくらいめざましい性能向上を得るのはかなり難しい気がする。あと、恐らく名詞と形容詞も数が多いので動詞と同じようなカバー率の問題を抱えているのだが、名詞選択 (特に具体物) はそんなに間違えないし、形容詞は動詞と同じく (日本語学習者が英語を書くときのように、大きく異なる言語間では) 間違えやすいが数が多くないので、動詞ほどクリティカルではないのかもしれない (動詞誤りはかなり数が多いし、選択を間違えると意味が通らなくなる)。

さて、トークにはけっこう人が集まった。しかしどうやらショートペーパーは15分の発表、5分の質疑のようで、発表10分だと思って用意してきた我々は撃沈……。15分あったら1.5倍話せるし! 一応全くヘルプなしに質疑を乗り切った@tuxedocat_tw くんは偉い。松本先生はいろいろ言っていたが、そもそも発表時間を間違って教えられていたハンデを乗り切ったのだから、十分なのではないかと思う。

ショートペーパーのセッションでは他に

  • Xuchen Yao, Benjamin Van Durme, Chris Callison-Burch and Peter Clark. A Lightweight and High Performance Monolingual Word Aligner. ACL 2013.

がショートペーパー的な発表でおもしろかった。デモもあってよかった。統計的機械翻訳では、語順の違う言語間の翻訳に対応するために、対訳のアライメントが交差するようなケースも扱わなければならないが、質問応答や含意関係認識など同一言語内で構造のアライメントを取る場合には翻訳と同じようにやる必要がないので、高速なアルゴリズムにすることができる、という内容。それはそうだという話だが、同様のことをする先行研究のアルゴリズムと比べても相当高速に動作するそうだし、ちゃんとツールも作って公開しているので、ショートペーパーとしては十分であろう。文法誤り訂正でも同一言語内の学習者の書いた作文と添削済みの作文のアライメントを取る問題があるのだが、問題設定としては機械翻訳よりは同一言語のアライメントのタスクに近いので、こういうツールがあると助かるのである (ほとんどは先頭から順番にアライメントを取ればいいのだが、少しだけ語順が入れ替わったりする)。逆に言うと、ちゃんと内容がある話はフルペーパーで出したほうがいいよな〜。

空港に向かう前、建物の入り口で[twitter:@neubig] さんたちと話す。NAISTも (よい方向に) 変わっていくなぁ。あれだけのハイレベルな教員と意欲にあふれた学生がいるので、今後も研究大学としてバリバリ活躍していってほしいものである。首都大も首都大で、博士の学生は少ないけど、負けていられない! :)

国際便なので空港に3時間前に着いたところ、だいぶ前だったようで、待ちぼうけ。セキュリティチェックの外は19時で閉まってしまうので、全部閉店だった (まだ19時じゃなかったのに……)。仕方ないのでセキュリティを通過して入ったのだが、半分以上の店が閉まっている。30分ほど空港内を探検して時間を潰していると、夕ご飯から帰ってきたのか、いくつか店が開いていたので、おみやげや絵はがきを購入。セキュリティを通過すると基本的に絵はがきが送れないのだけど (これまで送ることができたのはイギリスだけ)、イスタンブルで送れるかなぁ。

イスタンブルでは乗り継ぎ時間がほとんどなく、トルコの切手が貼られていれば送ってもらえるらしいが、切手がないのはダメらしい……。残念。