Activity Forecasting:逆強化学習による人物行動予測

仲間内で開催している勉強会で以下の論文を紹介したので資料をアップします。

Kris Kitani, Brian D. Ziebart, J. Andrew Bagnell, and Martial Hebert, "Activity Forecasting," European Conference on Computer Vision (ECCV), October, 2012.

(Best Paper Award Honorable Mention受賞)

概要説明

ロボットの行動制御で使われている技術として強化学習(人工知能学会の記事を参照)が知られていますが、この論文では逆強化学習という技術を使って、将来の人物行動軌跡を予測しています。

逆強化学習というのは、ざっくり言うとエキスパートの行動系列(制御ログや移動履歴など)を学習データとして、ある環境における理想的な行動規則を学習する技術です。逆強化学習に関するデモ動画を一つ紹介します。

これはStanford大のAndrew Ng教授らのグループによるラジコンヘリ自動制御の研究例です。エキスパートの操縦ログを学習データとして、未知の環境での制御方法を獲得しています。ハリケーンやフリップと言ったトリッキーな技まで獲得でき、熟練者を超えるケースもあったという点で、非常に面白い研究と感じました。

本題に戻ってActivity Forecastingですが、この論文の場合は人の行動自体をエキスパートの行動とみなし、ある環境における最適な行動規則を逆強化学習しています。具体的にはシーンセグメンテーションのラベル(歩道、車、建物、人など)と人物トラッキングで得た軌跡を学習データとして、人が好む経路(例えば、なるべく歩道を通る、車を避けて歩く)という特性(強化学習用語でいうと報酬関数)を学習しています。

学習した報酬関数を用いることで、スタート地点とゴール地点が与えられた時に、人がどんな経路で行動するか(どのように行動すれば報酬が最大となるか)を予測することができます。さらに、観測によって予測分布を更新することで、多数のゴールから逐次候補を絞って行くこともできます。

Activity Forecastingのデモ動画はこちら。

CVPapers on the webの論文リスト作成

CVPR 2013 papersのリンクも増えつつあるので、読んだ論文をチェックするためのリストが欲しくなりました。ということで、リストを作成するperlスクリプトを書きました。githubに置いておきます。

https://github.com/jh3rox/ParseCVPapers

使い方

1: このサイトのHTMLをローカルに保存

2: ParseCVPapers.plの入出力ファイルを修正

my $inHtml = "./cvpapers_cvpr2013.html";

my $outTxt = "./cvpr2013.txt";

3: 実行

chmod 755 ParseCVPapers.pl

perl ParseCVPapers.pl

出力例

こんな感じです。

f:id:jh3rox:20130428230811j:plain

開発環境

Macで動作確認しています。

出力されたtxtは、VMware fusion+Windows8 64bit+MS Excel2007で読み込みました。最初はcsvで出力していたんですが、タイトルや著者にカンマ含む場合にWindowsで正しく読めず取りやめ。

目で見えない微小な変化を増幅する画像処理技術

MIT Newsに出てた技術が凄かったので久々にポスト。

色や動きの微小な変化を増幅することで、心拍数、脈拍数、呼吸などのモニタリングを実現するというもの。

Eulerian Video Magnification for Revealing Subtle Changes in the World
to appear in SIGGRAPH 2012

顔画像の色変化から心拍数を計測するという技術は少し前にリリースされていましたが今回は微小な動きの増幅もできるように一般化したようです。

去年のRamesh Raskar先生のFemto-Photographyしかり、人の目で知覚できない現象にフォーカスするという着眼点が素晴らしい。

CV/PRML Best Papers

CV/PRML関連の主要学会best papersまとめです。
折をみて更新していきます

CVPR (Best paper award)

Best paper awardのみです。Honorable Mention、Best Student PaperはCVPR Best Papersをご参照のこと。

Year Title Authors Link
2013 Fast, Accurate Detection of 100,000 Object Classes on a Single Machine Thomas Dean et al. pdf
2012 A Simple Prior-free Method for Non-Rigid Structure-from-Motion Factorization Yuchao Dai et al. pdf
2011 Real-time Human Pose Recognition in Parts from Single Depth Images Jamie Shotton et al. pdf
2010 Efficient Computation of Robust Low-Rank Matrix Approximations in the Presence of Missing Data using the L1 Norm Anders Eriksson, Anton van den Hengel pdf
2009 Single Image Haze Removal Using Dark Channel Prior Kaiming He et al. pdf
2008 Beyond Sliding Windows: Object Localization by Efficient Subwindow Search Christoph H. Lampert et al. pdf
2007 Dynamic 3D Scene Analysis from a Moving Vehicles Bastian Leibe et al. pdf
2006 Putting Objects in Perspective Derek Hoiem et al. pdf
2005 Real-Time Non-Rigid Surface Detection Julien Pilet et al. pdf
2004 ? ? ?
2003 Object Class Recognition by Unsupervised Scale-Invariant Learning Rob Fergus et al. pdf
2002 ? ? ?
2001 Morphable 3D models from video Matthew Brand pdf
2000 Real-time tracking of non-rigid objects using mean shift Dorin Comaniciu et al. pdf

ICCV (Marr Prize Paper)

Year Title Authors Link
2011 Relative Attributes Devi Parikh and Kristen Grauman pdf
2009 Discriminative Models for Multi-class Object Layout Chaitanya Desai et al. pdf
2007 Population Shape Regression From Random Design Data Bradley Davis et al. pdf
2005 Globally Optimal Estimates for Geometric Reconstruction Problems Fredrik Kahl and Didier Henrion pdf
2003 Image-based Rendering using Image-based Priors Andrew Fitzgibbon et al. pdf
2003 Image Parsing: Unifying Segmentation, Detection and Recognition Zhuowen Tu et al. pdf
2003 Detecting Pedestrians using Patterns of Motion and Appearance Paul Viola et al. pdf
2001 Probabilistic Tracking in a Metric Space Kentaro Toyama and Andrew Blake pdf
2001 The Space of All Stereo Images Steven Seitz pdf
1999 A Theory of Shape by Space Carving Kiriakos Kutulakos and Steven Seitz pdf
1999 Euclidean Reconstruction and Reprojection up to Subgroups Yi Ma et al. pdf

ECCV (Best Paper Award)

Year Title Authors Link
2012 Segmentation Propagation in ImageNet Daniel Kuettel et al. pdf
2010 Graph Cut based Inference with Co-occurrence Statistics Lubor Laticky et al. pdf
2008 Learning Spatial Context: Using Stuff to Find Things L. Laticky et al. pdf
2006 Learning to Combine Bottom-up and Top-down Segmentation Anat Levin and Yair Weiss pdf
2004 High Accuracy Optical Flow Estimation Based on a Theory for Warping Thomas Brox et al. pdf
2002 Increasing Space-Time Resolution in Video Eli Shechtman et al. pdf
2002 3D Statistical Shape Models Using Direct Optimisation of Description Length Rhodri Davies et al. pdf
2002 Multi-camera Scene Reconstruction via Graph Cuts Vladimir Kolmogorov and Ramin Zabih pdf
2002 What Energy Functions can be Minimized via Graph Cuts? Vladimir Kolmogorov and Ramin Zabih pdf
2002 A variational Approach to Recovering a Manifold from Sample Points Jose Gomes and Aleksandra Mojsilovic pdf

更新履歴

  • 2013/07/27 CVPR2013 best paperを追加
  • 2012/06/29 CVPR2012 best paperを追加
  • 2011/11/13 ICCV2011 best paperを追加

査読者の心得

未熟ながらたまには査読のお仕事もまわってくるわけで、
査読スキルを磨いておくにこしたことはありません。
査読者と投稿者の立場を往来することで、自分の投稿論文の質も高められるはず。

ということで、以下、査読者の心得についてまとめます。
その他参考になる情報ご存知の方いらっしゃいましたら、ぜひコメント頂ければ幸いです。

私のマインド

  • 論文の概要、強みと弱みを簡潔にまとめる。査読者の理解を著者に示すことと、エディタの理解の助けとすることを目的とする。
  • 建設的にコメントする。言葉や表現を注意深く選ぶ。尊敬する研究者に対するマインドで書く。自分自身が受け取ったらどう感じるかを想像する。
  • 具体的なレポートを心がける。Accept/Rejectの理由を明確にする。新規性/進歩性/独自性の不足によりrejectする場合は必ず該当文献を示して説明する。
  • 学会/論文誌のスコープを理解したうえでコメントする。過去の採録水準を知っておく。学会参加者や論文誌の読者にとって有益か否かを判断する。
  • 査読レポートを書いたら数日寝かせた後提出する。

参考になるサイト(査読のてびき)

Notes on Constructive and Positive Reviewing (Mark Hill, Kathryn S McKinley)
  • A persuasive review includes a summary of the strengths and weaknesses of the paper, and the opinion of the reviewer on which weighs more heavily and why.
  • Look for reasons to accept a paper. Despite its flaws, does it point in new directions or expose promising insights? The community can benefit from imperfect, insightful papers.
  • While truly new papers are best (and rare), consider accepting papers that follow-up on recently-published promising directions. These papers allow the community to explore ideas that can not be fully-developed in one paper.
SIGGRAPH
  • "Living" with a paper for a few days gives you time to make thoughtful decisions about it. This is the best way to come up with helpful suggestions for improving the paper. To do this, you need to carve out some time in your day to think about the paper that you are reviewing.
  • Avoid referring to the authors by using the phrase "you" or "the authors."*1 These phrases should be replaced by "the paper." Directly talking about the authors can be perceived as being confrontational, even though you do not mean it this way.
  • Be specific when you suggest that the writing needs to be improved. If there is a particular section that is unclear, point it out and give suggestions for how it can be clarified.
  • Look for what's good or stimulating in the paper. Minor flaws can be corrected and shouldn't be a reason to reject a paper.
CVPR
投稿論文の査読のしかたを考える
  • 私が時としてやってしまいそうになり,みずからをいましめている 「べからず集」をあげてみます
    • 学問的な価値がないという判断を示す(そしてその妥当性に責任を持つ) ことをおそれて妥協して受理とすること
    • 学問的な価値についての自分の判断に自信が持てず,非本質的な欠点を 探して(あら探しをして)却下とすること
    • 文章の冗長さ,引用などの不注意ミス,図表の見にくさ,英語のまずさ などにいらだって,学問的な価値の判断も否定的な方向にバイアスすること
専門分野外の論文を査読する
  • 論文を読まずとも遠くから眺めるだけで採録か不採録か prior がたつ
  • 体裁に気を回す余裕が無いということは,論文の内容を仕上げるのも中途半端で終わっていることが多い
電子情報通信学会論文誌D/論文の書き方と査読の方法

*1:あーこれ、何回か書いてしまったな・・・と反省