SIGGRAPH2011報告会に参加しました
SIGGRAPH2011報告会に参加してきました。
私自身SIGGRAPHに参加したことはなく、
論文こそたまに読むものの、展示会やTalks、E-Techは
ほぼノーチェックだったので大変勉強になりました。
以下、主に技術系の内容だけざっと紹介します。
SIGGRAPH2011報告会
- 主催:SIGGRAPH東京(@sigtok, #sigtok)
- 日時:2011/8/26(金) 18:00-21:00(@女子美術大学)
- http://www.sig-tokyo.gr.jp/events/seminar61.html
Exhibition
- 745ヶ国、15872人がRegistration
- CyberGlobe
- 手の動きをキャプチャできるグローブ
- Marvelous Designer
- インタラクティブな洋服のCGモデリングソフト
- 人の3Dモデルに素材を追加していくと洋服の型紙が自動生成される
- できた洋服を着てモデルが歩くようなCGアニメーションも行う。ドレープ・布の質感も再現。
- 数年前の論文が現実に使われるようになった
- http://www.marvelousdesigner.com/
- OpenStage/OrganicMotion
Computer Animation Festival
- http://www.siggraph.org/s2011/for_submitters/computer-animation-festival
- 44ヶ国から891件の応募、77本が採択
High Performance Graphics(HPG)
- http://highperformancegraphics.org/
- Graphics HardwareとInteractive Ray Tracingが合併してできた
- 今年のトレンドは、レイトレ、ラスタライザ拡張、低電力GPU(組み込み)
- 論文紹介
- Real-Time Diffuse Global Illumination Using Radiance Hints:リアルタイム拡散GI
- SSLPV: Subsurface Light Propagation Volumes:リアルタイムSSS
- Adaptive Transparency:半透明物体の描画
- Voxelized Shadow Volume:霧などのシャドウ効果
- 発表スライドは以下で公開されています
Emerging Technology(E-Tech)
- E-Techの位置づけ
- 体験型先端技術展
- 端的な新規性のメッセージ
- 学会+ショー、技術を魅せる
- E-Techは来年からは論文カテゴリになる
- 13/23が日本からの発表
- ディスプレイ新時代 立体/実体/質感/触感
- Photochromic sculpture
- 発色する積層型の立体ディスプレイ、発光ではない
- 紫外線を当てると発色する素材を塗布する
- Recompose(MIT)
- Kinectでジェスチャ認識して立体ディスプレイを操作
Papers&Talks
- 50枚以上あるのでサクサク飛ばす、SIGGRAPH東京に入れば全部見れる
- Coherent Out-of-Core Point-Based Global Illumination(DreamWorks Animation)
- 大規模なGlobal Illumination、カンフーパンダ2で適用
- Example-Based Image Color and Tone Style Enhancement
- Coherent Noise for Non-Photorealistic Rendering(Pixar Animation Studios)
- Non-photorealistic Rendering (NPR)向けのノイズ生成技術
- A Quantized-Diffusion Model for Rendering Translucent Materials (Weta Digital)
- 新たな半透明物体の表面下散乱モデル。Modified BSSRDF。重要な論文、数式難しので気合が必要。
- http://www.eugenedeon.com/qd.html
- Image and Video Upscaling from Local Self-Examples(Hebrew University of Jerusalem)
- 事例ベース超解像、フレーム内の自己同一性を使う
- NTSC (640) to full HD (1920) conversion
- http://www.cs.huji.ac.il/~raananf/projects/lss_upscale/index.html
- CGを汚す手法(Industiral Light & Magic)
- 2D3D変換(Disney)
- スタッフが奥行き感を書き込んで教師付きでデプスマップを作る
参考リンク
- SIGGRAPH 2011 Technical Papers Video Preview
- Technical Papers First Pages
- 論文の最初のページだけを集めたpdf。超重いので要注意です(184 MB PDF)
- http://www.siggraph.org/s2011/sites/org.s2011/files/papers-first-pages-siggraph-2011.pdf
- SIGGRAPH 2011 papers on the web
Mendeleyを使ってみた
かねてより気になっていたMendeleyをお試し中です。
http://www.mendeley.com/
以前はJabRef+dropboxを使っていましたが、
bibtex fileをインポートできると知って
試してみる気になりました。
文献登録方法
JabRefからの移行だと、これでOK。
ちなみにWindows 7で試しています。
- Mendeley Desktopをインストール
- pdfファイルをドラッグ&ドロップ
- bibtexファイルをドラッグ&ドロップ
相当数の論文がさくっと登録できました。
文字化けしてるものも結構あるけどとりあえず放置。
一応pdfからも情報抽出してくれますが、イマイチ精度に欠けるので、
bitex fileをインポートするだけでよいと思います。
所感
1週間使ってみた感想。JabRefと比べて、
- 導入の敷居が低い
- Mendeleyで検索&Saveするだけで文献を追加できる。JabRefのわずらわしさとは一線を画します。
- MS WordからのCitationが超絶便利
- JabRefはExport→Harvard RTFして整形するか、手間かけてPlugin入れる必要あり。めちゃ面倒。
- 一方悪いところはというと、今のところそんなにない気がしています。
- 移行の手間がかかるくらいか?JabRefの方がUIチューニングが自由にできますが、それは些細な話。
ちょうど書き物もあることですし、しばらく使ってみようと思います。
関連サイト
- Mendeleyで論文を管理する
- 便利すぎる無料の研究論文管理ソフト『Mendeley』
- 文献管理ソフトウェア Mendeley の簡単な説明 - akameganeの日記より
KinectFusionによる三次元再構成
DTAMの著者が2nd authorとなっている論文が
SIGGRAPH 2011で発表されていたようです。
その名もKinectFusion。
DTAMは単眼カメラによる手法ですが、こちらはKinectを使ってさらに性能を上げています。
パーティクルを投げつけるARデモもインパクト大(3:50以降)。
これはリアルバイオハザードができちゃいますね・・・
DTAMにKinectFusion、必見です。
動画
論文
KinectFusion: Real-Time Dynamic 3D Surface Reconstruction and Interaction, SIGGRAPH 2011
参考リンク
- Microsoft Research
DTAMによる三次元再構成
先日に引き続き3Dネタです。
twitterで話題になっていたDTAM@ICCV2011、
デモ動画のインパクトが凄まじいです。
単眼カメラのリアルタイム3次元計測でこの精度とは・・
動画
論文
DTAM: Dense Tracking and Mapping in Real-Time, ICCV2011 (pdf)
Abstractしか読んでいませんが、
特徴点ベースではなくて画素単位で再構成を行う、
まさにDense Tracking and Mappingな手法のようです。
DTAM is a system for real-time camera tracking and reconstruction
which relies not on feature extraction but dense, every pixel methods.
しかし、この机どっかで見たことあるな〜・・・と思ったら、
CVPR2010でも発表していたみたいですね。それがこちら。
Live Dense Reconstruction with a Single Moving Camera, CVPR2010
http://www.doc.ic.ac.uk/~rnewcomb/CVPR2010/
ポータブル3Dスキャナ「GelSight」
MIT newsから。
Photometric stereoを使った超高精度のポータブル3Dスキャナ「GelSight」です。
透明のゲル素材を物体に押し付け、凹凸によって生じた変位をPhotometric stereo法によって計測します。
- デプス計測精度はサブμmオーダー
- サーフェス計測精度は2μmオーダー
という驚異のデバイスです。
小さい物体しか計測できないという欠点はありますが、
これだけの精度が出るのであれば医療や検査など様々な応用が期待できます。
CVPR2009で基本アルゴリズムを提案し、SIGGRAPH 2011で高精度化を図ったようですね。
論文はこちら。
- Microgeometry Capture using an Elastomeric Sensor, SIGGRAPH 2011 (pdf)
- Retrographic Sensing for the Measurement of Surface Texture and Shape, CVPR 2009 (pdf)
動画