EMNLP 2008 読み会&カレー

EMNLP 2008 の読み会。淡々と進む。カレー部の活動と共催。ryu-i さん yotaro-w くん katsumasa-y くんの3人が必死になって作ってくれたらしい(お米17合炊いたそうだが……)。ありがとうございます!

自分の以外の3本はどこかで紹介した、もしくは岡崎さんが紹介した論文なので、あえて感想は書かないが、自分の紹介した論文のスライドは張っておく。

論文読むのであれば、これのベースとなった

も見たほうがいいように思う。アブストラクトだけ張っておくと

This paper proposes a framework for representing the meaning of phrases and sentences in vector space. Central to our approach is vector composition which we operationalize in terms of additive and multiplicative functions. Under this framework, we introduce a wide range of composition models which we evaluate empirically on a sentence similarity task. Experimental results demonstrate that the multiplicative models are superior to the additive alternatives when compared against human judgments.

という感じで、ベクトルに基づく手法(vector space model とか)ではベクトルを合成するとき足すのではなくかけ算するのが(かなり)効果的である、という話。たぶんトピックモデルの product model と同じで、多義が本質的な場合(語義は多義であることが多いから)はかけ算で表現するとよい、というような現象があるのではないかと想像している。