基礎的なレベルの研究こそ大事

今週から月曜日も在宅勤務できる曜日になるはずだったが、出勤しないといけない打ち合わせがあったために、泣く泣く出勤。出勤しなくてもいい会議はだいぶオンラインになったのだが、それでもどうしても出勤しないといけない打ち合わせもあるのである(こればかりは仕方ない)。

午前中は大学院の自然言語処理の授業。先週までで古典的(?)な自然言語処理の内容は終わって、今回からの5回(全体の1/3)は深層学習に関する内容。今時の自然言語処理だと、全部深層学習に寄せた授業にすることも可能だとは思うのだが、今のところまだ1/3くらい(ただ、これは去年より1.5倍に増えている)。来年度は1/2〜2/3くらいになるかなあ。

内容について考えると、情報検索やウェブと自然言語処理みたいなのは、深層学習とは関係なく古典的な話をする必要があると考えてるのだが、基礎知識として教えていた部分は(例えば構文解析とかは)今の自然言語処理だと必ずしも必要ないような気もする一方、事前学習済みモデルの話なんかはもっとしておいた方がいいだろうし、ホットな(?)アプリケーションもテキストマイニングから対話(チャットボット)みたく変化しているし。

昼休みは上記のように対面でないとできないお仕事を3件ほどこなしたあと、研究会(研究室全体ゼミ)を2時間半。YANS(NLP 若手の会シンポジウム)に向けた進捗報告を聞いた後、ACL Student Research Workshop の発表練習と、ACL Findings の発表練習(ACL というのは、自然言語処理のトップカンファレンスである)。そういえばこの ACL Findings に採択された

  • Zhousi Chen, Longtu Zhang, Aizhan Imankulova and Mamoru Komachi. Neural Combinatory Constituency Parsing. Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp.2199-2213. August, 2021.

は自分的には最近のお気に入りの研究で、紆余曲折を経て2年越しに採択されたというのもあるのだが、自分が関わった初めての構文解析に関する論文なのである。これまで基盤技術の中で、形態素解析レイヤーの仕事や意味解析、談話解析のレイヤーの仕事はしてきたが、その間に入っている固有表現認識レイヤーや構文解析レイヤーの研究はしたことがなかったので、このあたりの研究グループがこの2年間で育ってきた、というのが嬉しいのである。(ちなみに、この ACL Findings の研究は、IWPT という構文解析専門の国際会議でも枠をもらって発表したが、セッションの座長は松本先生だったそうだ)

end-to-end の深層学習が全盛の時代に基盤技術がどれくらい意味があるのか、という問いは真剣に向き合う必要はあると思うのだが、応用ばかりではなく基礎もしっかりやる(論文を書くだけでなく、ツールやコーパス、辞書も作って公開する)のが大事、というのは NAIST 松本研で学んだもっとも大事なことの一つなので、こういう仕事は今後もコツコツできたらいいなと思っている。ちなみに、うちの研究室では学生にタスクを降って研究させるというスタイルではないので、こういう仕事に興味を持つ学生にそもそも希少価値があり、地道な研究が好きな学生に来てもらわないといけないという気がしている。