NLP2013 チュートリアル: どのように解くかではなく何を解くかが重要

今日から言語処理学会年次大会である。年に1度の全国大会で、日本にいる言語処理の関係者 (大学の人、企業の人、学生等々) が一堂に会するイベントである。参加人数もかなり多い (600人以上) ので、お祭り的なイベントなのであるが……

朝から新幹線で移動なので、車内で朝ご飯を食べていたら、口の中に違和感。金属がご飯の中に入っている感じ。機械の部品の破片か弾丸かなにかが入っているのか? と思って恐る恐る口から出してみたら、小さな金属の塊が出てくる。こんなものが入っているなんてけしからん!と一瞬思ったが、形としてもなにかの部品のようにも思えないし、おかしいな、と思ってお茶を飲んだら、歯の詰め物が取れていたのだ、と分かる。こんなときに、なんで〜……。

幸いなことに、朝早く名古屋に着く便に乗っていたので、名古屋大学近くの歯医者さんを検索し、着いたら速攻で行って事情を話し、治療してもらう。詰め物がそのまま元に戻せれば一番簡単だそうだが、一度噛んでしまったせいで曲がっているようで、結局作り直しになる。最近は詰め物も金属製ではなく樹脂製の白いものが普及しているそうなので、樹脂で作ってもらう。待ち時間も入れて1時間くらいでやってくださって、大変ありがたい。

午前中はチュートリアル。ryu-i さんのアノテーションの話に出てみる。アノテーションされたコーパスについて、一度標準化されるとそれを盲信する信者がいる、という話、確かにそうかも。ただ、一度広まってデファクトになってしまうと、手法の比較をするためにはデータを変えにくいという事情もあって、難しいところである。タスクに興味があるのか手法に興味があるのかで違うのだろうが、タスクに興味がある人にとっては問題のあるデータを使い続けるというのはなんとかしたいところだろう。

あと、なんでも単語を素性にして無理に解こうとするのはいかがなものか、という意見も同意。もっと問題の背景を考察した言語的に意味のあるモデルなり素性なりを使ったほうがいいと思うのだが、bag-of-words だけとか、あるいはせいぜい単語周辺の適当なウィンドウ幅内の n-gram とか、そんなので分類問題として解くような研究をよく見かける (それだけで大部分の問題が解けるタスクもあると思うが……)。機械学習の手法に関する論文ならともかく、自然言語処理の論文であれば、「何を解いているのか分からない論文が量産される」という指摘もごもっともである。(言い換えると、どのような言語現象が明らかになったのか分からない、ということである)

たとえば、学生にも、統語的な素性がいかにも必要そう・効きそうなケースでは試すよう伝えているのだが、人によっては何度言っても入れてくれないので、ちょっと困ることもある。入れて効果がなかったので外した、というのと、入れたことがない、というのには雲泥の差があって、簡単に実装できることを試していないと、なんでやってないの、と思われてしまうのである。(あるいは、入れられない理由を教えてくれたら納得するのだけど……)

昼は英文法誤り訂正タスクのランチミーティング。とはいえ、人数が多いので食堂を探してご飯を食べるだけで一苦労で、ミーティングできたのは10分くらい。せっかく学会に来ているのだから、NAIST の外の人ともっと話したほうがいいと思うし、これだけしか話せないなら、あえてやらなくてもよかったような気もする。4人以下ならスムーズに場所も確保できただろうし、意味のある議論ができたのだろうけど……

午後一は組み合わせ最適化チュートリアルSlideshare でも公開してくださったようだ。分かりやすい。こういう道具立てを頭に入れておくと、あるときふとこれで解ける問題に気がついたりするのだろう。まだまだそういう手持ちの道具が少ないのであるが……。

チュートリアル後、日本 MT (機械翻訳) の会。永田さんと日英機械翻訳の付き合いの話がおもしろかった。最近 Komachi et al. (IWSLT-2006) に言及されることがときどきあるのだが、確かにやっていたときはこれが後から参照されることになるとは思っていなかった。M2 のとき書いた初めての英語論文なので、ちょっと自分では読み返したくない感じなのだが、書いててよかったなと思う。自分の提案した手法、NTT にインターンとしていらしていた星野さんが再実装してくれて NTCIR 特許翻訳データでも試してくれたそうで、そちらでも効果があったらしい (もちろん、彼の提案する手法のほうがさらによい結果ではあるが)。

最近ときどき自分が過去に提案した手法を実装したという話を聞くのであるが、とても嬉しいことである。他の人が実装するに足るほどのことをしているかと言われると自信がないのだが、他の人が実装して、別のデータセットでもうまく行っていると教えてもらうと、この分野に対してなにかしらの貢献ができているかな、と思うのである (もちろん、後に続く人には自分の研究はどんどん乗り越えていってもらいたい)。日英機械翻訳は自分もやりたい研究テーマの一つなので、4月から再開してみようかな。

夕方以降は第三の会に参加。なぜ「第三の会」かというと、若手の会に参加するのはそろそろ……と思うくらいになってきて、かといってシニアな方々が集う関根会 (ニューヨーク大学楽天技術研究所の関根さん) に行くのもまだちょっと……という、だいたい35〜40歳くらいの人たちが集まれる場所を作ろう、というわけで、それら2つの会からして yet another な会なので「第三の会」ということになったそうだ。

いまフランスにいらっしゃる甲南大の永田さんとも久しぶりにお会いし、旧交を温める。英作文の母語推定タスクについて、永田さんもひょんなことから関わっているそうで、話してみるとやっぱり認識が共通していてお互いほっとする (笑) このタスク自体にどれくらい意味があるのか (そもそもユーザに母語を申請させれば済むだけの話ではないか) という指摘は宮尾さん含めいろんな方から指摘されており、それもごもっともであるのだが、そういうデータが得られない状況も考えられるので、自分としてはそこは不問でもよいと思う。

もっとクリティカルなのは (これは永田さんとも共通認識であるが)、このタスク自身が bag-of-words (あるいは bag-of-ngrams) で相当な精度を達成することができ、逆にそれ以上の統語的な情報などなどを使っても性能が向上しないどころか悪化することのほうが多く、しかも悪いことに人間より機械のほうがこのタスクは優れているので、誤分類された事例を見ても人間は原因あるいは改善策がほとんど分からない、という点である。ryu-i さんのチュートリアルの話のところでも書いたように、単語の表層だけ使って母語を推定する (できる) というのは、結局このタスクは第二言語習得に関する問題ではない (文書分類に近いタスク)、ということであって、なんだかおもしろくないタスクだなと思うのである。もちろん、やってみないと納得できなかったわけであるし、最初にそれを調べた人は偉いのだが、これらのことは COLING 2012 で発表された内容なので、研究的にはすでに結論が出ているのである。まあ、新しいことを発見していくのが研究なので、ここがスタートライン、ということなのであろうが……。

今回自分は初めてこの会に呼んでもらったのだが、来月35歳だし、年齢的にはちょうどくらい? 大体30人弱の参加で、いろいろお話できてよかった。ときどきは外の人と話すといいな〜

夜は引っ越しのせいで腰が微妙だったので (あとこの1週間ほとんどメールの返事もできてなかったので) 2次会には参加せずに帰ってきたが、4次会まであったらしい。すごい……。やっぱり引っ越しは年次大会のあとにしたほうがよかったかなと思ったりする。