研究者が夜型なのは世界共通

連休中の疲労が腰にきてダウン……。横になっていて使えるのは iPadiOS 4.2.1 の更新が来たようで、日本語50音キーボードが使えるようになった。左右のフリックで濁音 (゛)・半濁音 (゜)が入れられるのと、上下のフリックで促音 (っ)・拗音 (ぁぃぅぇぉゃゅょ) が入れられる。

qwerty キーボードで親指2本打ちに慣れてしまったので、50音キーボードが打ちやすいのかどうかよく分からないのだが、ちょっと試した感じでは速く打てそう。慣れるまでは忍耐かなぁ〜

そういえば iPhone 3GiPad の電源アダプタをつないでも充電できないと思っていたのだが、@m_hama さんに「充電の表示がおかしいだけで充電できているのでは? 再起動すると表示が正常になったりしませんか?」と教えていただき、試してみたところビンゴ。充電の表示は真っ赤のゲージでも充電は完了していて、そのまま使い続けることができる (気持ち悪いので時間のあるときに再起動しているけど)。いやー、これは助かる。

iPhone 3GSiPhone 4iPad の電源アダプタで普通に充電できる(し表示もちゃんと充電完了になる)そうなので、iPhone 3G をお使いの方は上記に留意して iPad の電源アダプタを流用することができる、ということのようである。

夜は Sebastian Riedel さんと炭火焼肉 鶴兆 奈良店へ。Riedel さんは @Wildkatze くんの博士論文の学外アドバイザーになってもらっているため、今週1週間 NAIST に滞在されるようである。@tettsyun くんが「日本の大学院生は昼夜逆転する人もいるのですが、アメリカの大学院生はどうですか」「日本の化粧がケバい若い女性は外国人的にどうなんですか」などなど積極的におもしろい質問をしていて楽しかった (笑) Philipp Koehn さんが実は毎日午後X時に来るとか、研究者(あるいは情報系の人?)に夜型が多いのは人類普遍的な傾向であることを知ってちょっと安堵する (笑)

ここでアナウンスしたかどうかは分からないが、今週の金曜日と土曜日に「自然言語処理合同研究会」が NAIST で開催されるので、近隣の興味ある方々は参加されるといいかと。初日の14:20-15:35が Riedel さんの招待講演である。詳しくは特設ページを参照されたし。

日時
11月26日(金) 14:20-15:35
場所
奈良先端科学技術大学院大学情報科学研究科L1講義室
招待講演
Dr. Sebastian Riedel 氏
タイトル
Ignorant Inference: MAP and Marginal Inference for Large Scale Graphical Models in NLP
概要
  Large scale graphical models naturally arise in many natural language processing applications. They provide an expressive language for users to define their probabilistic models in, and come with a set of generic inference methods, such as belief propagation and its variants. However, for many of the problems we encounter in practice, these methods do not scale up well. For example, when using Belief Propagation for a state-of-the-art second order dependency parsing model, analysis of a long sentence can still take minutes. In this work I present an approach to inference in such networks that can dramatically improve runtime, and memory footprint. The core idea is to be ignorant: instead of considering the full graphical model, we ignore most of its edges. Which edges to ignore is decided dynamically: we start with a very small sub-model, solve it using any solver of choice, and add edges only if they can significantly change the solution. This process is repeated until convergence and applicable for both MAP and marginal inference. For the former we add edges if their corresponding potentials are not returning their maximal value in the current solution. For the latter we add edges if they lead to a substantial KL divergence between current and extended graph. Empirically we apply this approach to Semantic Role Labelling, Entity Resolution and Dependency Parsing. We find that it leads to speed-ups of up to 2 orders of magnitude and 4 orders of magnitude smaller graphs. In all cases there is no, or no significant, loss of accuracy. For our MAP approach this accuracy is theoretically guaranteed: ignorant inference is as least as accurate as the solver S we apply for the each of the partial graphs. In particular, this means that if we use an exact method (such as Integer Linear Programming), we can efficiently return exact solutions for graphical models with millions of edges and nodes.