5年続けると見えてくるものがある

夜に雪が降って積もっているという話で、大学周辺が積もっているか気になったが、凍ったり積もったりしているわけではないと教えていただいて一安心。しかし大学周辺の渋滞状況を調べたところ、どうも渋滞しているようなので、国道163を使わないルートで出勤。大学の前で左右を見渡したら、相当な渋滞だった。迂回してよかった。

[twitter:@Yuki_arase] さんと合流し、雑談。[twitter:@keiskS] くんと [twitter:@kevinduh] さんも合流し、中国の話をしたりする。元助教室 (現在は学生室兼助教室) で話していたのだが、パーティションが乱立していてスペースがない……。これはどうにかならないものかと思う。

そうこうしていると[twitter:@neubig]さんと[twitter:@ARAMAKI]さんが到着したので、@Yuki_arase さんともども、ゲストとしてソーシャルメディア解析勉強会に参加してもらう。トップバッターはhayato-nくんで、先日と同様 Twitter自然言語処理の話をしてくれる。いろいろ議論が出てきておもしろい。新しい単語を獲得するだけではなく、忘れることも必要だよね、という話が出てきたところでちょうど ryosuke-m くんにバトンタッチ。新語義獲得の話をしてくれることになっていたので、ちょうどよかった。こちらも様々アイデアをいただくことができて、有意義であった。有害な情報は出会い系サイトのようなもの以外にも、たとえばデマも有害では、という話が出てきたところで、ぴったり hiroshi-t くんに引き継ぎ。Twitter上のデマの訂正情報の研究をしているのである。絶妙なスルーパスが多い (笑) こちらもみなさんから有益なコメントをもらえてよかった。

お昼はゲストの方々を囲んでNAIST教員メンバーとでランチ。いつもこういう外部の方がいらしたときのランチのお茶係やコーヒー係を秘書さんから頼まれるのだが、自分は全体的に連絡がワンテンポ遅いようで、午後のトークぎりぎりになってしまって申し訳ない。今回は、前の勉強会が白熱して開始時間が遅くなったせいもあるので、嬉しい悲鳴ではあるが……。

午後のトークは「医療・ソーシャルメディア・言語」というお題で@ARAMAKI さんが講演。冒頭で、博士号を取得してから、アカデミックポストを探したらたまたま東大病院で仕事があり、最初は興味がなかった医療情報処理に仕事で取り組んでみたら、意外とおもしろくて何年も続けることになったし、5年も続けていると周りもいっぱしの専門家と見てくれるようになったから、突然なにかをやらないといけないことになっても、食わず嫌いせずに5年くらいは続けてみるとよいですよ、という話をされていて、共感する。人生なにがあるか分からないから、自分もあまり予断を持たず、お呼びがかかったら1回はやってみることにしているのだが、それをずっと継続するのも大事だな。

さて、@ARAMAKIさんのトーク、いろんなテーマがあっておもしろい。参加者とインタラクティブにやりとりできるのはすごい才能だと思う。デモも簡単なものだと謙遜されていたが、こんなに見てすぐ分かるデモを (しっかりした研究のかたわら) 作られているというのは敬服する。ところどころで先ほどの「5年くらいは続けてみましょう」みたいな tips (?) を挟んでくださって、とても参考になる。「自然言語処理はテキストからテキストだからデモがあまり受けないように思われるので、紙から紙に出すデモを作ってみたら、意外に受けてテレビにも取り上げてもらいました。裏では研究的にもちゃんとやっているのに、そちらはほとんど言及されませんでしたが……」というようなお話とか。先日のオープンキャンパスでも計算メカニズム学研究室で目の前で暗号を印刷して説明し、持って帰ってもらう、というのをやっていて盛況だったが、物理的に触れるというのはいいのかもしれない。

夕方は @ARAMAKI さんたちとお別れして言語教育勉強会。@Yuki_arase さんにゲストとして加わってもらう。まず、hiromi-o さんのコーパス日本語学ワークショップのポスター発表練習。1月31日〆切で必死に原稿を書いているのだが、まだ分析が途中でほとんど具体例がなかった……。実際のポスター発表は3月1日で、まだ1ヶ月以上あるので、とりあえず原稿に集中かな?

次に [twitter:@mitsuse_t] くんの進捗報告。ちょっと前提条件の説明をはしょっているのでこれも @Yuki_arase さんには分かりづらかったかもしれないが、少しずつ改善に向かっている。やっぱりまずは学習者の文がちゃんと解析できるのかを調べないといけない。たぶんいまこのタスクに取り組んでいる全員がそこで止まっているのだが、事例を見ないと自然言語処理の研究にならない。ありがちなのは、プログラムを書くのは好きであっという間に (あるいは嬉々として大量の時間を投じて) 書き、パラメータをいろいろ変えたりなんだりして数字が上がったとか下がったとかは嬉々として調べるのだが、実際にどういう事例が解けて、どういう事例が解けていないだとか、あるいはどういう素性がどれくらい聞いていて解析に成功・失敗しているのかを全く見ないことである。

自然言語処理の研究において、コードを書くのは手段であって目的ではないし、数字が上がるというのも「提案手法がこういう問題を解決したから、こういう素性をちゃんと学習し、これまで解けなかったこういう事例が解けるようになって、最終的に性能が上がった」ということであって、結果の数字が上がっていたので「提案手法は効果がありました」と論文を書いたあと、詳しく調べてみたら全然予想と違って提案手法が解決しようとしていた問題は解決していなくて、別のところでよくなっていた、というのだと、論文のストーリーが根幹から覆るので、評価尺度 (精度) の優劣だけで議論してはいけないのである。

最後は [twitter:@tomo_wb] くんと [twitter:@shirayu] くんと [twitter:@keiskS] くんによる母語推定の共通タスクの進捗報告。人間より (bag-of-words ですら) 機械のほうが遥かにうまくできるタスクのようで、これを精度で競うのは厳しいような気がする。その人の母語が何か、というのは第三者の人間が判断してつけているものではなく、正解は本当に書いた人の自己申告で決まるので、そういう意味では upper bound は100%なのだが、いまの state-of-the-art (最高性能) のもので80%程度だそうだ。残りの20%は何が決め手なのかが問題だが、Hindi (北インド) と Telugu (南インド) という、言語的には相当違うが文化的に近い言語対が区別しにくいとか、日本・韓国・中国は区別しにくいとか、(スペインだけでなく南アメリカ全体、そして最近ではアメリカ国内の大部分で話されている) スペイン語はそもそも難しいだとか、言語の特徴というよりは文化の特徴によって難しさが違うようである (bag-of-words しか見ていないのにそうなるというのは不思議な話ではあるが)。

夕方から夜にかけて、1:1のミーティングx3。全部のミーティングが終わったのは20時。週明けだからいろいろやることがあり、合間合間に秘書さんが訪ねてきて、慌ただしい。まあ、1年で学内にいて忙しいのは12-2月の3ヶ月くらい (学外に行って忙しいのは、国内の学会や研究会が集中する9月と3月) なので、年の半分くらいはのんびり過ごせるのだけど……。