文法の知識が少し見えてきた

珍しく深夜3時に下の子のミルクで起きたので、プライベートのメールをしたり。プライベートの長文メールはなかなか書くタイミングがない。長文メールが書けるくらいの集中できる時間があるなら仕事したいので、こういう明らかに私用の時間でないと……。(自分は任意のタイミングで寝られるので、夜中に起きても大丈夫)

4-5月の勤務についてまとめてみたら、平均すると1日5時間前後は仕事ができているようで、体感的には3-4時間くらいだったのだが、思ったより働けていた。実際は、この勤務時間の8割はオンラインミーティングで、かつオンラインミーティングの時間の半分以上は下の子を抱いて参加していたわけで、そちらの方が(キーボードが使えなくて)しんどかった。緊急事態宣言が解除されて保育園もスタートしてよかった(保育体制について、色々と運営チームとして考えないといけないことがあり、結局 Zoom で会議をすることになったが)。

今日は在宅勤務なので9時からメール処理をしたり授業の採点とコメント入力をしたり。今週は学部生(津田塾の B3/B4、主に B3)と大学院生(都立大の B4/M1、主に M1)に同じ問題を出しているのだが、かなり内容が違ってびっくりする。B3 と M1 は専門分野の知識以外はそんなに違わないと思っていたのだが、相当違うようである。都立大の B3 にも同じ問題を出してみたら学年を揃えて比較できたのだが、あいにく対応する授業を持っていないので難しい。

午前中は論文紹介で2本紹介してもらったが、以下の論文が気になった。スライド

  • Ethan A. Chi, John Hewitt, and Christopher D. Manning. Finding Universal Grammatical Relations in Multilingual BERT. ACL 2020.

BERT の分析の論文を最近たくさん見かけるが、これは multilingual BERT の中にどういう情報が入っているのか、というのを分析した話。多言語で依存構造解析ができるのでこういう研究ができるわけだが、最近興味があるのはニューラルモデルが何を学習しているかで、なんかよくわからないブラックボックスだがなにがしかの能力があることは分かっていて、それが言語学的な知識とどういう関係にあるのか、ということが知りたいである。結局は間接的な手がかりしか得られないのではあるが、ある程度これまでの知見と整合性がある、というのはおもしろい。自分が自然言語処理をやろうと思ったのも、「役に立つ」文法とは何か、ということが知りたかったからで、こうやって道具立てが揃ってきているのはいい時代に研究ができていると思う。

午後は研究会でチュートリアル4件と ACL Student Research Workshop の発表練習。チュートリアルは毎年やっているもので、大学院生に新入生向けの解説を何かやってもらっているのである。ACL Student Research Workshop は発表形式の連絡が先週末まで来なかったが、来たと思ったら12分の口頭発表(録画)と言われ、提出期限が2週間しかなくてびびる。むしろ short paper の発表時間が7分らしく、それでいいのだろうか……とちょっと気になる。

夕方は科研費の交付申請。実は今年の2月にはもう申請可能だったのだが、来年の3月までにすればいい(大学的には年内)ようで、新型コロナウイルスがどうなるのか分からないので延ばし延ばしにしていたのである。ただ、今年度に予算を早く使いたい事情があり、年度によらず一括で使えるようになるらしいので、とりあえず申請しようかなと。これで計算機をちょっ整えたい。