研究のストラテジーを変えてみた

今日も有給休暇を取得。PACLIC という国際会議に卒業生の論文を投稿していたのだが、カメラレディ原稿は自分がやるということで投稿に同意してもらったので、自分が最後まで原稿を見ているのである(幸い、発表は全員自分でやってもらえることになった)。

ちなみに今年度後半の査読付き国際会議は以下である。

  1. Hiroki Shimanaka, Tomoyuki Kajiwara and Mamoru Komachi. RUSE: Regressor Using Sentence Embeddings for Automatic Machine Translation Evaluation. In Proceedings of the Third Conference on Machine Translation. Brussels, Belgium. October 31-November 1, 2018. (poster)
  2. Longtu Zhang and Mamoru Komachi. Neural Machine Translation of Logographic Language Using Sub-character Level Information. In Proceedings of the Third Conference on Machine Translation. Brussels, Belgium. October 31-November 1, 2018. (poster, 採択率28.7%, arXiv)
  3. Tomonori Kodaira and Mamoru Komachi. The Rule of Three: Abstractive Text Summarization in Three Bullet Points. In Proceedings of the 32nd Pacific Asia Conference on Language, Information and Computation. Hong Kong. December 1-3, 2018. (poster, arXiv)
  4. Yoshiaki Kitagawa and Mamoru Komachi. Long Short-Term Memory for Japanese Word Segmentation. In Proceedings of the 32nd Pacific Asia Conference on Language, Information and Computation. Hong Kong. December 1-3, 2018. (oral, 採択率32%, arXiv)
  5. Ryosuke Miyazaki and Mamoru Komachi. Japanese Sentiment Classification using a Tree-Structured Long Short-Term Memory with Attention. In Proceedings of the 32nd Pacific Asia Conference on Language, Information and Computation. Hong Kong. December 1-3, 2018. (poster, arXiv)

arXiv に投稿した古いのが下になるように並べてみたが、一番古いのは2017年4月に投稿していたもので、なんというかこうやって少しずつちゃんと査読付き国際会議に投稿して成仏させておかないとな、と思うことしきりである。うちの研究室で少なくとも内部進学した学生は修士論文相当の研究を英語で書けば IJCNLP/PACLIC/PACLING あたりの full paper には普通に通るはずなので、みんな最低このラインの国際会議では発表できるようにしたいのである(いまのところ半分くらい)。本数的にはこれ以上増やすことはできないので、あとは1本1本のクオリティを上げていきたい。

ちなみに少し解説すると、1本目は文のエンコーダを使って機械翻訳の評価を行うという研究で、我々のチームは複数の文エンコーダを用いて教師あり学習することで、今年の WMT Metrics タスクでトップの成績を収めた。2本目は日本語と中国語を部首や書き順に分解して分散表現を学習することで、日中英のニューラル機械翻訳で部首と書き順の情報を用いると翻訳の精度が向上することを示した(ちなみに、日本語と中国語では効き方が違うので、興味がある人は arXiv の PDF を見ていただきたい)。これは COLING 2018 に投稿していたが、統計的な検定をしていないということと、ベースラインが足りない(やらなくても割と自明だからやらなかったのだが)ということで不採択だったものである。3本目はニューラル文書要約の研究で、出力に構造があることを利用する手法を提案した。4本目は LSTM を用いた日本語単語分割の研究で、本当は2016年3月でほぼ実験結果が出ていたのに、統計的な検定をしていないなど詰めが甘くて COLING 2016 に通すことができず、その後関連研究がたくさん登場してしまった研究である。5本目は Tree-LSTM を用いた日本語評価極性分類の研究で、これも COLING 2016 に通すことができず、その後ほとんど同じ関連研究が出てきて新規性がほぼ失われてしまい、苦しい立場になった研究である。

これらの論文を通して学んだのは、深層学習を用いた研究には「賞味期限」があり、それを過ぎるとほとんど価値がなくなってしまうので、これは通すと決めた論文には全力でエネルギーを注いで通しておかないと、無限に後続研究が出てきて埋もれてしまう(どこまでもベースラインを足して追加実験をしないといけない)、ということである。世の中がこのようになってしまったのでどうしようもないのだが、研究のやり方を根本的に見直さないといけないと思って、今年はいろいろやり方を変えている。来年どうなるか蓋を開けてみないと分からないが……。