論文リスト

学術誌論文(査読付き)Journal Papers (with peer review)

  1. 城戸祐世, 杉山隼大, 大塚和弘:「言語特徴を利用した対話中の頭部運動機能の認識」, 電子情報通信学会論文誌A, Vol. J107-A, No.1, pp.6-18, 2024, DOI: 10.14923/transfunj.2023JAP1010
  2. 田代絢子, 今村まい, 熊野史朗, 大塚和弘:「マルチモーダル非言語行動に基づく対話者の視線機能の認識」, 電子情報通信学会論文誌 A, Vol.J106-A, No.12, pp.296-311, 2023
  3. 武田一輝, 今村まい, 大塚和弘:「対話中の頭部運動機能が持つ解釈の曖昧性を推定する深層回帰モデル」, 電子情報通信学会論文誌 A, Vol. J106-A, No.10, pp.255-266, 2023
  4. 大土隼平, 三好一輝,石井陽子,石井 亮,永徳真一郎,大塚和弘:「頭部運動機能特徴に基づく対話者の主観的印象の予測・説明モデルの構築」,人工知能学会論文誌,Vol. 38, No. 3, 2023
    DOI: 10.1527/tjsai.38-3_H-M74
  5. 飯塚海斗,大塚和弘:「対話中における聞き手の頭部運動と相槌の相乗機能の解析」, 人工知能学会論文誌, Vol. 38, No. 3, 2023
    DOI: 10.1527/tjsai.38-3_J-M91
  6. 今村まい, 武田一輝, 熊野史朗, 大塚和弘:「対話中の頭部運動と顔表情の相乗機能の認識」, 電子情報通信学会論文誌A, Vol.J106-A, No.3, pp.70-87, March 2023
    DOI: 10.14923/transfunj.2022HAP0007
  7. 丸山光貴, 森 駿志, 大塚和弘:「遠隔対話者間の相互作用に対する頭部運動再現機構の機能的効果の分析」, 電子情報通信学会論文誌A, Vol.J106-A, No.3, pp.88-103, March 2023
    DOI: 10.14923/transfunj.2022HAP0009
  8. 森 駿志, 大塚和弘:「対話中の頭部運動相互作用の機能認識のための深層転移学習」, 電子情報通信学会論文誌A, Vol.J105-A, No.10, pp.111-124, Oct. 2022
    DOI: 10.14923/transfunj.2021JAP1037
  9. 大土隼平, 石井陽子, 中谷桃子, 大塚和弘:「複数人対話における頭部運動機能に基づく対話参加者の主観的印象の予測」, 電子情報通信学会論文誌D, Vol. J105-D, No.09, pp.504-517, Sep. 2022
    DOI:10.14923/transinfj.2021JDP7064
  10. 武田一輝, 大塚和弘:「対話中の頭部運動機能認識のための特徴膨張収縮深層ニューラルネットワーク」, 電子情報通信学会論文誌A, Vol. J105-A, No. 2, pp26-37, 2022, DOI: 10.14923/transfunj.2021JAP1016
  11. 石井 亮, 大塚和弘, 熊野史朗, 東中竜一郎, 青野裕司:「話者継続・交替時における対話行為と視線行動に基づく共感スキルの推定」, 情報処理学会論文誌, Vol. 62, No.1, pp. 100-114, January, 2021【特選論文】
  12. Kazuhiro Otsuka and Masahiro Tsumori, “Analyzing Multifunctionality of Head Movements in Face-to-Face Conversations Using Deep Convolutional Neural Networks,” IEEE Access, Vol.8, pp. 217169-217195, doi: 10.1109/ACCESS.2020.3041672, 2020
  13. Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Ryuichiro Higashinaka, and Junji Tomita, “Prediction of Who Will Be Next Speaker and When Using Mouth-Opening Pattern in Multi-Party Conversation,” Multimodal Technologies and Interaction, Vol. 3, No. 4, p. 70, October 2019
  14. 石井 亮,熊野史朗,大塚和弘:「話者継続・交替時における参与役割に応じた視線行動に基づく共感スキルの推定」,ヒューマンインタフェース学会論文誌,Vol. 20, No. 4, p. 447-456, 2018年11月
  15. Layla Chadaporn Antaket, Masafumi Matsuda, Kazuhiro Otsuka, and Shiro Kumano, “Analyzing Generation and Cognition of Emotional Congruence using Empathizing-Systemizing Quotient,” International Journal of Affective Engineering, Vol.17 No.3, pages: IJAE-D-18-00001, 2018
  16. Kazuhiro Otsuka, “Behavioral Analysis of Kinetic Telepresence for Small Symmetric Group-to-Group Meetings,” IEEE Transactions on Multimedia, Volume 20, Issue 6, pp. 1432-1447, June 2018
  17. Shiro Kumano, Kazuhiro Otsuka, Ryo Ishii, and Junji Yamato, “Collective First-Person Vision for Automatic Gaze Analysis in Multiparty Conversations,” IEEE Transactions on Multimedia, Volume 19, Issue 1, pp. 107-122, January 2017
  18. Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, and Junji Yamato, “Prediction of “Who Will Be Next Speaker and When” using Gaze Behavior in Multi-Party Meetings,” ACM Transaction on Interactive Intelligent Systems, Volume 6, Issue 1, Article No. 4, pp. 4:1-4:31, May 2016
  19. 石井 亮,大塚和弘,熊野史朗,松田昌史,大和淳司:「複数人対話における頭部運動に基づく次話者の予測」,情報処理学会論文誌, Vol. 57, No. 4, pp. 1116-1127, 15 April 2016
  20. Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, and Junji Yamato, “Using Respiration to Predict Who Will Speak Next and When in Multiparty Meetings,” ACM Transaction on Interactive Intelligent Systems, Volume 6, Issue 2, Article No. 20, pp. 20:1-20:20, 27 March 2016
  21. Shiro Kumano, Kazuhiro Otsuka, Dan Mikami, Masafumi Matsuda, and Junji Yamato, “Analyzing Interpersonal Empathy via Collective Impressions,” IEEE Transactions on Affective Computing, Vol. 6, Issue 4, pp. 324-336, 27 March 2015
  22. 石井 亮,小澤史朗,小島 明,大塚和弘,中野有紀子,林 祐樹:「遠隔空間の重畳を可能とする鏡インタフェースMIOSSの提案と評価」,ヒューマンインタフェース学会論文誌, Vol.17, No.3, pp. 255-264, 25 August 2015
  23. Dairazalia Sanchez-Cortes, Shiro Kumano, Kazuhiro Otsuka, and Daniel Gatica-Perez, “In the Mood for Vlog: Multimodal Inference in Conversational Social Video,” ACM Transactions on Interactive Intelligent Systems (TiiS), Volume 5 Issue 2, Article No. 9, pp. 9:1-9:24, July 2015
  24. Shiro Kumano, Kazuhiro Otsuka, Masafumi Matsuda, and Junji Yamato, “Analyzing Perceived Empathy based on Reaction Time in Behavioral Mimicry,” IEICE Transactions on Information and Systems, Vol. E97-D, No. 8, pp. 2008-2020, 01 August 2014
  25. 石井 亮,大塚和弘,熊野史朗,松田 昌史,大和淳司:「複数人対話における注視遷移パターンに基づく次話者と発話開始タイミングの予測」,電子情報通信学会論文誌, Vol. J97-A,No.6,pp.453-468, 01 June 2014
  26. 松田昌史,大坊郁夫,熊野史朗,大塚和弘,大和淳司:「ビデオ通信環境における対人位置と印象形成に関する探索的研究」,ヒューマンインタフェース学会論文誌, Vol. 15, No. 4, pp. 433-442, 25 November 2013
  27. 大塚和弘,熊野史朗,松田 昌史,大和淳司:「MM-Space: 頭部運動の物理的補強表現に基づく会話場再構成」,情報処理学会論文誌, Vol. 54, No. 4, pp. 1450-1461, 14 April 2013【推薦論文】
  28. Takaaki Hori, Shoko Araki, Takuya Yoshioka, Masakiyo Fujimoto, Shinji Watanabe, Takanobu Oba, Atsunori Ogawa, Kazuhiro Otsuka, Dan Mikami, Keisuke Kinoshita, Tomohiro Nakatani, Atsushi Nakamura, and Junji Yamato, “Low-Latency Real-Time Meeting Recognition and Understanding Using Distant Microphones and Omni-Directional Camera,” IEEE Transactions on Audio, Speech & Language Processing, Vol. 20, Issue 2, pp. 499-513, February 2012
  29. Dan Mikami, Kazuhiro Otsuka, Shiro Kumano, and Junji Yamato, “Enhancing Memory-Based Particle Filter with Detection-Based Memory Acquisition for Robustness under Severe Occlusion,” IEICE Transactions on Information and Systems, Vol. 95-D, No. 11, pp. 2693-2703, 01 November 2012
  30. 坊農 真弓,菊地浩平,大塚和弘:「手話会話における表現モダリティの継続性」,社会言語科学, Vol. 14, No. 1, pp. 126-140, 30 September 2011
  31. 三上 弾,大塚和弘,大和淳司:「姿勢とアピアランスの変化に頑健な対象追跡を実現するアピアランス統合メモリベースパーティクルフィルタ」,電子情報通信学会論文誌 D, 情報・システム Vol. J94-D, No. 8, pp. 1194-1205, 01 August 2011【推薦論文】
  32. 三上 弾,大塚和弘,大和淳司:「メモリベースパーティクルフィルタ : 状態履歴に基づく事前分布予測を用いた頑健な対象追跡」,電子情報通信学会論文誌 D, 情報・システム Vol. J93-D, No. 8, pp. 1313-1328, 01 August 2010 【H22年度電子情報通信学会論文賞,及び,喜安善市賞】
  33. Shiro Kumano, Kazuhiro Otsuka, Junji Yamato, Eisaku Maeda, and Yoichi Sato, “Pose-Invariant Facial Expression Recognition Using Variable-Intensity Templates,” International Journal of Computer Vision, Vol. 83, Issue 2, pp.178-194, June 2009
  34. 熊野史朗,大塚和弘,大和淳司,前田英作,佐藤洋一:「パーティクルフィルタとこう配法の組合せによる頭部姿勢と表情の同時推定」,電子情報通信学会論文誌 D, 情報・システム Vol. J92-D, No. 8, pp. 1349-1362, 01 August 2009
  35. Oscar Mateo Lozano and Kazuhiro Otsuka, “Real-time Visual Tracker by Stream Processing: Simultaneous and Fast 3D Tracking of Multiple Faces in Video Sequences by Using a Particle Filter,” Journal of VLSI Signal Processing Systems, Vol. 57, Issue 2, pp. 285-295, November 2009
  36. 熊野史朗,大塚和弘,大和淳司,前田英作,佐藤洋一:「変動輝度テンプレートによる頭部姿勢と表情の同時推定」,情報処理学会論文誌 コンピュータビジョンとイメージメディア, Vol. 1, No. 2, pp. 50-62, 24 July 2008
  37. 大塚和弘,竹前嘉修,大和淳司,村瀬 洋:「複数人物の対面会話を対象としたマルコフ切替えモデルに基づく会話構造の確率的推論」,情報処理学会論文誌, Vol. 47, No. 7, pp. 2317-2334, 15 July 2006
  38. Yoshinao Takemae, Kazuhiro Otsuka, Junji Yamato, and Shinji Ozawa, “The Subjective Evaluation Experiments of an Automatic Video Editing System Using Vision-based Head Tracking for Multiparty Conversations,” IEEJ Transactions on Electronics, Information and Systems, Vol. 126-C, No. 4, pp. 435-442, 01 July 2006 
  39. 竹前嘉修,大塚和弘,武川直樹:「対面の複数人対話を撮影対象とした対話参加者の視線に基づく映像切替え方法とその効果」,情報処理学会論文誌, Vol. 46, No. 7, pp. 1752-1767, 15 July 2005
  40. 大塚和弘,武川直樹:「多視点観測に基づく複数物体の相互オクルージョン解析と逐次状態推定」,情報処理学会論文誌 コンピュータビジョンとイメージメディア, Vol. 44(SIG17(CVIM8)), pp.109-125, 15 December 2003
  41. Kazuhiro Otsuka, Tsutomu Horikoshi, Haruhiko Kojima, and Satoshi Suzuki, “Image Sequence Retrieval for Forecasting Weather Radar Echo Pattern,” IEICE Transactions on Information and Systems, Vol. E83-D, No. 7, pp. 1458-1465, 25 July 2000
  42. 大塚和弘,堀越 力,安達文夫,曽根原 登,鈴木 智:「時空間中の運動軌跡に基づくテンポラルテクスチャー解析」,情報処理学会論文誌, Vol. 40, No. 8, pp. 3155-3168, 15 August 1999
  43. 大塚和弘,落合慶広, 鈴木 智, 堀越 力, 小田寿則, 稲垣充廣:「局地・短時間気象予報システム: My Weather」,情報処理学会論文誌, Vol. 40, No. 3, pp. 1117-1126, 15 March 1999
  44. 大塚和弘,堀越 力,安達文夫,落合慶広,鈴木 智:「時空間中の運動軌跡に基づくオプティカルフローの推定」,電子情報通信学会論文誌 D-II, 情報・システム, Vol. J81-D-2, No. 9, pp. 2061-2073, 25 September 1998
  45. 瀬戸篤志,大塚和弘,石井六哉:「ニューラルネットワークを用いた劣化画像の復元法」,電子情報通信学会論文誌D-II, 情報・システム, Vol. J80-D-2, No. 5, pp. 1276-1285, 25 May 1997

国際会議論文(査読付き)Conference Proceedings (with peer review)

  1. Shumpei Otsuchi, Koya Ito, Yoko Ishii, Ryo Ishii, Shin-ichiro Eitoku, and Kazuhiro Otsuka, “Identifying Interlocutors’ Behaviors and its Timings Involved with Impression Formation From Functional Head-Movement Features and Linguistic Features,” in  Proceedings of 25th ACM International Conference on Multimodal Interaction (ICMI2023), pp. 336-344, 2023 (Long Paper, Acceptance Rate=38%)
  2. Mai Imamura, Ayane Tashiro, Shiro Kumano, and Kazuhiro Otsuka, “Analyzing Synergetic Functional Spectrum from Head Movements and Facial Expressions in Conversations,” in  Proceedings of 25th ACM International Conference on Multimodal Interaction (ICMI2023), pp.42-50, 2023 (Long Paper, Acceptance Rate=38%)
  3. Ayane Tashiro, Mai Imamura, Shiro Kumano, and Kazuhiro Otsuka, “Analyzing and Recognizing Interlocutors’ Gaze Functions from Multimodal Nonverbal Cues,” in  Proceedings of 25th ACM International Conference on Multimodal Interaction (ICMI2023), pp.33-41, 2023 (Long Paper, Acceptance Rate=38%)
  4. Shumepi Otsuchi, Yoko Ishii, Momoko Nakatani, and Kazuhiro Otsuka, “Prediction of Interlocutors’ Subjective Impressions Based on Functional Head-Movement Features in Group Meetings,” in Proceedings of 23rd ACM International Conference on Multimodal Interaction (ICMI2021), pp. 352–360, 2021, DOI:https://doi.org/10.1145/3462244.3479930【Long Paper】(Acceptance Rate=37.5%) 2021年10月19日発表
  5. Kazuki Takeda and Kazuhiro Otsuka, “Inflation-Deflation Networks for Recognizing Head-Movement Functions in Face-to-Face Conversations,” in Proceedings of 23rd ACM International Conference on Multimodal Interaction (ICMI2021), pp. 361–369, 2021, DOI:https://doi.org/10.1145/3462244.3482856【Long Paper(Acceptance Rate=37.5%)】, 2021年10月20日発表
  6. Takashi Mori and Kazuhiro Otsuka, “Deep Transfer Learning for Recognizing Functional Interactions via Head Movements in Multiparty Conversations,” in Proceedings of 23rd ACM International Conference on Multimodal Interaction (ICMI2021), pp. 370–378, 2021【Long Paper】(Acceptance Rate=37.5%)2021年10月21日発表
  7. Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Ryuichiro Higashinaka and Junji Tomita, “Estimating Interpersonal Reactivity Scores Using Gaze Behavior and Dialogue Act During Turn-Changing,” in Proceedings of International Conference on Human-Computer Interaction (HCI International 2019), pp. 45-53, July 2019.
  8. Daniel Gatica-Perez, Dairazalia Sanchez-Cortes, Trinh-Minh-Tri Do, Dinesh Babu Jayagopi and Kazuhiro Otsuka, “Vlogging Over Time: Longitudinal Impressions and Behavior in YouTube,” in Proceedings of 17th International Conference on Mobile and Ubiquitous Multimedia (MUM2018), November 2018.
  9. Kazuhiro Otsuka, Keisuke Kasuga, and Martina Köhler, “Estimating Visual Focus of Attention in Multiparty Meetings using Deep Convolutional Neural Networks,” in Proceedings of 20th ACM International Conference on Multimodal Interaction (ICMI2018), pp. 191-199, October 2018【Oral Long Paper: 採択率:15.4%】
  10. Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Ryuichiro Higashinaka, and Junji Tomita, “Analyzing Gaze Behavior and Dialogue Act during Turn-taking for Estimating Empathy Skill Level,” in Proceedings of 20th ACM International Conference on Multimodal Interaction (ICMI2018), pp. 31-39, October 2018 【Oral Long Paper: 採択率:15.4%】
  11. Ryo Ishii, Shiro Kumano, and Kazuhiro Otsuka, “Analyzing Gaze Behavior during Turn-taking for Estimating Empathy Skill Level,” in Proceedings of 19th ACM International Conference on Multimodal Interaction (ICMI2017), pp. 365-373, November 2017
  12. Shiro Kumano, Ryo Ishii, and Kazuhiro Otsuka, “Comparing Empathy Perceived by Interlocutors in Multiparty Conversation and External Observers,” in Proceedings of International Conference on Affective Computing and Intelligent Interaction (ACII2017), pp. 50-57, October 2017
  13. Shiro Kumano, Ryo Ishii, and Kazuhiro Otsuka, “Computational Model of Idiosyncratic Perception of Others’ Emotions,” in Proceedings of International Conference on Affective Computing and Intelligent Interaction (ACII2017), pp. 42-49, October 2017
  14. Ryo Ishii, Shiro Kumano, and Kazuhiro Otsuka, “Prediction of Next-Utterance Timing using Head Movement in Multi-Party Meetings,” in Proceedings of 5th International Conference on Human Agent Interaction (HAI2017), pp. 181-187, October 2017
  15. Shogo Okada and Kazuhiro Otsuka, “Recognizing Words from Gestures: Discovering Gesture Descriptors Associated with Spoken Utterances,” in Proceedings of 12th IEEE International Conference on Automatic Face and Gesture Recognition (FG2017), pp. 430-437, May 2017
  16. Kazuhiro Otsuka, “MMSpace: Multimodal Meeting Space Embodied by Kinetic Telepresence,” in Proceedings of the 2017 CHI Conference Extended Abstracts on Human Factors in Computing Systems (CHI EA 2017), p. 458, May 2017【ビデオセッション】
  17. Ryo Ishii, Shiro Kumano, and Kazuhiro Otsuka, “Analyzing Mouth-opening Transition Pattern for Predicting Next Speaker in Multi-party Meetings,” in Proceedings of International Conference on Multimodal Interaction (ICMI2016), pp. 209-216, November 2016
  18. Kazuhiro Otsuka, “MMSpace: Kinetically-Augmented Telepresence for Small Group-to-Group Conversations,” in Proceedings of IEEE Virtual Reality 2016 (VR2016), pp. 19-28, March 2016【Oral Presentation, Acceptance Ratio=25.9%】
  19. Ryo Ishii, Shiro Kumano, and Kazuhiro Otsuka, “Multimodal Fusion using Respiration and Gaze for Predicting Next Speaker Based in Multi-Party Meetings,” in Proceedings of International Conference on Multimodal Interaction (ICMI2015), pp. 99-106, November 2015
  20. Ryo Ishii, Shiro Ozawa, Akira Kojima, Kazuhiro Otsuka, Yuki Hayashi, and Yukiko Nakano, “Design and Evaluation of Mirror Interface MIOSS to Overlay Remote 3D Spaces,” IFIP TC.13 International Conference on Human-Computer Interaction (INTERACT2015), pp. 319-326, September 2015
  21. Shiro Kumano, Kazuhiro Otsuka, Ryo Ishii, and Junji Yamato, “Automatic Gaze Analysis in Multiparty Conversations based on Collective First-Person Vision,” in Proceedings of International Workshop on Emotion Representation, Analysis and Synthesis in Continuous Time and Space (EmoSPACE2015) in conjunction with 2015 11th IEEE International Conference and Workshops on Automatic Face and Gesture Recognition (FG2015), pp. 1-8, vol. 5, May 2015
  22. Ryo Ishii, Shiro Kumano, and Kazuhiro Otsuka, “Predicting Next Speaker Based on Head Movement in Multi-Party Meetings,” in Proceedings of International Conference on Acoustics, Speech and Signal Processing (ICASSP2015), pp. 2319-2323, April 2015
  23. Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, and Junji Yamato, “Analysis of Respiration for Prediction of “Who Will Be Next Speaker and When?” in Multi-Party Meetings,” in Proceedings of International Conference on Multimodal Interaction (ICMI2014), pp. 18-25, November 2014 【Outstanding Paper Award受賞】
  24. Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, and Junji Yamato, “Analysis of Timing Structure of Eye Contact in Turn-changing,” in Proceedings of Workshop on Eye Gaze in Intelligent Human Machine Interaction: Eye-Gaze and Multimodality (GazeIn2014), pp. 15-20, November 2014
  25. Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, and Junji Yamato, “Analysis and Modeling of Next Speaking Start Timing in Multi-party Meetings,” in Proceedings of International Conference on Acoustics, Speech and Signal Processing (ICASSP2014), pp. 694-698, May 2014
  26. Dairazalia Sanchez-Cortes, Joan-Isaac Biel, Shiro Kumano, and Junji Yamato, Kazuhiro Otsuka, Daniel Gatica-Perez, “Inferring Mood in Ubiquitous Conversational Video,” in Proceedings of 12th International Conference on Mobile and Ubiquitous Multimedia (MUM2013), December 2013
  27. Kazuhiro Otsuka, Shiro Kumano, Ryo Ishii, Maja Zbogar, and Junji Yamato, “MM+Space: N×4 Degree-of-Freedom Kinetic Display for Recreating Multiparty Conversation Spaces,” in Proceedings of ACM International Conference on Multimodal Interfaces (ICMI2013), pp. 389-396, December 2013
  28. Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Masafumi Matsuda, and Junji Yamato, “Predicting Next Speaker and Timing from Gaze Transition Patterns in Multi-Party Meetings,” in Proceedings of ACM International Conference on Multimodal Interfaces (ICMI2013), pp. 79-86, December 2013
  29. Shiro Kumano, Kazuhiro Otsuka, Masafumi Matsuda, Ryo Ishii, and Junji Yamato, “Using A Probabilistic Topic Model to Link Observers’ Perception Tendency to Personality,” in Proceedings of Humaine Association Conference on Affective Computing and Intelligent Interaction (ACII2013), pp. 588-593, December 2013
  30. Shiro Kumano, Kazuhiro Otsuka, Masafumi Matsuda, and Junji Yamato, “Analyzing Perceived Empathy/Antipathy based on Reaction Time in Behavioral Coordination,” in Proceedings of International Workshop on Emotion Representation, Analysis and Synthesis in Continuous Time and Space (EmoSPACE) In conjunction with the IEEE Conference on Automatic Face and Gesture Recognition (FG2013), April 2013
  31. Dinesh Babu Jayagopi, Dairazalia Sanchez-Cortes, Kazuhiro Otsuka, Junji Yamato, and Daniel Gatica-Perez, “Linking Speaking and Looking Behavior Patterns with Group Composition, Perception, and Performance,” in Proceedings of the 14th ACM international conference on Multimodal interaction (ICMI2012), pp. 433-440, October 2012【Outstanding Paper Award受賞】
  32. Kazuhiro Otsuka, Shiro Kumano, Dan Mikami, Masafumi Matsuda, and Junji Yamato, “Reconstructing Multiparty Conversation Field by Augmenting Human Head Motions via Dynamic Displays,” in Proceedings of the 2012 ACM Annual Conference Extended Abstracts on Human Factors in Computing Systems (CHI EA 2012), pp. 2243-2248, May 2012[
  33. Shiro Kumano, Kazuhiro Otsuka, Dan Mikami, Masafumi Matsuda, and Junji Yamato, “Understanding Communicative Emotions from Collective External Observations,” in Proceedings of the 2012 ACM Annual Conference Extended Abstracts on Human Factors in Computing Systems (CHI EA 2012), pp. 2201-2206, May 2012
  34. Kazuhiro Otsuka, Kamil Sebastian Mucha, Shiro Kumano, Dan Mikami, Masafumi Matsuda, and Junji Yamato, “A System for Reconstructing Multiparty Conversation Field based on Augmented Head Motion by Dynamic Projection,” in Proceedings of the 19th ACM International Conference on Multimedia (MM2011), pp. 763-764, November 2011
  35. Lumei Su, Shiro Kumano, Kazuhiko Otsuka, Dan Mikami, Junji Yamato, and Yoichi Sato, “Early Facial Expression Recognition with High-frame Rate 3D Sensing,” in Proceedings of 2011 IEEE International Conference on Systems, Man, and Cybernetics (SMC2011), pp. 3304-3310, October 2011
  36. Takaaki Hori, Takuya Yoshioka, Masakiyo Fujimoto, Shinji Watanabe, Takanobu Oba, Atsunori Ogawa, Kazuhiro Otsuka, Dan Mikami, Marc Delcroix,  Keisuke Kinoshita,  Tomohiro Nakatani, Atsushi Nakamura, and Junji Yamato, “Low-Latency Meeting Recognition and Understanding using Distant Microphones,” in Proceedings of 2011 Joint Workshop on Hands-free Speech Communication and Microphone Arrays (HSCMA2011), pp. 151-152, May-June 2011 
  37. Shiro Kumano, Kazuhiro Otsuka, Dan Mikami, and Junji Yamato, “Analyzing Empathetic Interactions based on the Probabilistic Modeling of the Co-occurrence Patterns of Facial Expressions in Group Meetings,” in Proceedings of 2011 IEEE International Conference on Automatic Face and Gesture Recognition (FG2011), pp. 43-50, March 2011
  38. Takaaki Hori, Shoko Araki, Takuya Yoshioka, Masakiyo Fujimoto, Shinji Watanabe, Takanobu Oba, Atsunori Ogawa, Kazuhiro Otsuka, Dan Mikami, Keisuke Kinoshita, Tomohiro Nakatani, Atsushi Nakamura, and Junji Yamato, “Real-time Meeting Recognition and Understanding Using Distant Microphones and Omni-directional Camera,” in Proceedings of Spoken Language Technology Workshop (IEEE-SLT2010), pp. 424-429, December 2010
  39. Sebastian Gorga and Kazuhiro Otsuka, “Conversation Scene Analysis based on Dynamic Bayesian Network and Image-based Gaze Detection,” in Proceeding of the 12th International Conference on Multimodal Interfaces and 7th Workshop on Machine Learning for Multimodal Interaction (ICMI-MLMI2010), Article No. 54, pp. 54:1-54:8, November 2010
  40. Shiro Kumano, Kazuhiro Otsuka, Dan Mikami, and Junji Yamato, “Recognizing Communicative Facial Expressions for Discovering Interpersonal Emotions in Group Meetings,” in Proceedings of ACM International Conference on Multimodal Interfaces (ICMI-MLMI2009), pp. 99-106, November 2009
  41. Kentaro Ishizuka, Shoko Araki, Kazuhiro Otsuka, Tomohiro Nakatani, and Masakiyo Fujimoto, “A Speaker Diarization Method based on the Probabilistic Fusion of Audio-Visual Location Information,” in Proceedings of ACM International Conference on Multimodal Interfaces (ICMI-MLMI2009), pp. 55-62, November 2009
  42. Kazuhiro Otsuka, Shoko Araki, Dan Mikami, Kentaro Ishizuka, Masakiyo Fujimoto, and Junji Yamato, “Realtime Meeting Analysis and 3D Meeting Viewer Based on Omnidirectional Multimodal Sensors,” in Proceedings of ACM International Conference on Multimodal Interfaces (ICMI-MLMI2009), pp. 219-220, November 2009
  43. Dan Mikami, Kazuhiro Otsuka, and Junji Yamato, “Memory-based Particle Filter for Face Pose Tracking Robust under Complex Dynamics,” in Proceedings of IEEE Conference on Computer Vision and Pattern Recognition 2009 (CVPR2009), pp. 999-1006, June 2009【Oral Presentation, Acceptance Ratio=4.1%】
  44. Kazuhiro Otsuka, Shoko Araki, Kentaro Ishizuka, Masakiyo Fujimoto, Martin Heinrich, and Junji Yamato, “A Realtime Multimodal System for Analyzing Group Meetings by Combining Face Pose Tracking and Speaker Diarization,” in Proceedings of ACM 10th Int. Conf. Multimodal Interfaces (ICMI2008), pp. 257-264, October 2008
  45. Kazuhiro Otsuka and Junji Yamato, “Fast and Robust Face Tracking for Analyzing Multiparty Face-to-Face Meetings,” in Proceedings of 5th Joint Workshop on Machine Learning and Multimodal Interaction (MLMI2008), Lecture Notes in Computer Science, Vol. 5237, pp. 14-25, September 2008
  46. Shiro Kumano, Kazuhiro Otsuka, Junji Yamato, Eisaku Maeda, and Yoichi Sato, “Combining Stochastic and Deterministic Search for Pose-Invariant Facial Expression Recognition,” in Proceedings of British Machine Vision Conference (BMVC2008), pp. 66.1-66.10, September 2008
  47. Oscar Mateo Lozano and Kazuhiro Otsuka, “Simultaneous and Fast 3D Tracking of Multiple Faces in Video by GPU-based Stream Processing,” in Proceedings of the 33rd International Conference on Acoustics, Speech, and Signal Processing (ICASSP2008), pp.713-716, May 2008
  48. Shiro Kumano, Kazuhiro Otsuka, Junji Yamato, Eisaku Maeda, and Yoichi Sato, “Pose-Invariant Facial Expression Recognition Using Variable-Intensity Templates,” in Proceedings of Asian Conference on Computer Vision (ACCV2007), Vol. I, pp. 324-334, Lecture Notes in Computer Science (LNCS) Volume 4843, November 2007 【Honorable Mention】
  49. Kazuhiro Otsuka, Hiroshi Sawada, and Junji Yamato, “Automatic Inference of Cross-modal Nonverbal Interactions in Multiparty Conversations,” in Proceedings of ACM 9th International Conference on Multimodal Interfaces (ICMI2007), pp. 255-262, November 2007 【Outstanding Paper Award】
  50. Kazuhiro Otsuka, Junji Yamato, Yoshinao Takemae, and Hiroshi Murase, “Conversation Scene Analysis with Dynamic Bayesian Network Based on Visual Head Tracking,” in Proceedings of 2006 IEEE International Conference on Multimedia and Expo (ICME2006), pp. 949 -952, July 2006
  51. Kazuhiro Otsuka, Junji Yamato, Yoshinao Takemae, and Hiroshi Murase, “Quantifying Interpersonal Influence in Face-to-face Conversations based on Visual Attention Patterns,” in Proceedings of CHI 2006 Extended Abstracts on Human Factors in Computing Systems, pp.1175-1180, April 2006
  52. Kazuhiro Otsuka, Yoshinao Takemae, Junji Yamato, and Hiroshi Murase, “A Probabilistic Inference of Multiparty-Conversation Structure Based on Markov-Switching Models of Gaze Patterns, Head Directions, and Utterances,” in Proceedings of ACM International Conference on Multimodal Interfaces (ICMI2005), pp.191-198, October 2005
  53. Yoshinao Takemae, Kazuhiro Otsuka, and Junji Yamato, “Effects of Automatic Video Editing System Using Stereo-Based Head Tracking for Archiving Meetings,” in Proceedings of 2005 IEEE International Conference on Multimedia and Expo (ICME2005), pp. 185 -188, July 2005
  54. Yoshinao Takemae, Kazuhiro Otsuka, and Junji Yamato, “Development of Automatic Video Editing System Based on Stereo-Based Head Tracking for Archiving Meetings,” in Proceedings of The Third International Conference on Active Media Technology (AMT2005), p.269, May 2005
  55. Yoshinao Takemae, Kazuhiro Otsuka, and Junji Yamato “Automatic Video Editing System Using Stereo-Based Head Tracking for Multiparty Conversation,” in Proceedings of CHI 2005 Extended Abstracts on Human Factors in Computing Systems, pp.1817-1820, April 2005
  56. Kazuhiro Otsuka, Yoshinao Takemae, Junji Yamato, and Hiroshi Murase, “Probabilistic Inference of Gaze Patterns and Structure of Multiparty Conversations from Head Directions and Utterances,” in Proceedings of First International Workshop on Conversational Informatics, pp.7-12, March 2005
  57. Kazuhiro Otsuka and Naoki Mukawa, “A Particle Filter for Tracking Densely Populated Objects Based on Explicit Multiview Occlusion Analysis,” in Proceedings of International Conference on Pattern Recognition (ICPR2004), Volume 4, pp.23-26, August 2004
  58. Yoshinao Takemae, Kazuhiro Otsuka, and Naoki Mukawa, “An Analysis of Speakers’ Gaze Behavior for Automatic Addressee Identification in Multiparty Conversation and Its Application to Video Editing,” in Proceedings of IEEE International Workshop on Robot and Human Interactive Communication (IEEE/RO-MAN 2004), pp.581-586, September 2004
  59. Kazuhiro Otsuka and Naoki Mukawa, “Multiview Occlusion Analysis for Tracking Densely Populated Objects Based on 2-D Visual Angles,” in Proceedings of the 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR2004), Volume 1, pp.90-97, June 2004
  60. Yoshinao Takemae, Kazuhiro Otsuka, and Naoki Mukawa, “Impact of Video Editing Based on Participants’ Gaze in Multiparty Conversation,” in Proceedings of CHI 2004 Extended Abstracts on Human Factors in Computing Systems, pp.1333-1336, April 2004
  61. Yoshinao Takemae, Kazuhiro Otsuka, and Naoki Mukawa, “Video Cut Editing Rule Based on Participants’ Gaze in Multiparty Conversation,” in Proceedings of ACM Multimedia 2003, pp.303-306, November 2003
  62. Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, and Haruhiko Kojima, “Memory-based Forecasting for Weather Image Patterns,” in Proceedings of 17th AAAI Conference on Artificial Intelligence (AAAI2000) (Austin), pp.330-336, July 2000
  63. Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, and Haruhiko Kojima, “Memory-based Forecasting of Complex Natural Patterns by Retrieving Similar Image Sequences,” in Proceedings of IAPR 10th. Int. Conf. Image Analysis and Processing (ICIAP1999), pp. 874-879, September 1999 【Best Paper Award受賞】
  64. Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, and Masaharu Fujii, “Local Precipitation Forecast based on Retrieval of Similar Echo Pattern in Radar Image Sequences,” in Proceedings of American Meteorological Society 15th Int. Conf. Interactive Information and Processing Systems for Meteorology, Oceanography, and Hydrology, pp.99-102, January 1999
  65. Kazuhiro Otsuka, Tsutomu Horikoshi, and Satoshi Suzuki, “Image Sequence Retrieval for Forecasting Weather Radar Echo Pattern,” in Proceedings of Machine Vision and Application (MVA1998), pp.238-241, November 1998
  66. Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, and Masaharu Fujii, “Feature Extraction of Temporal Texture Based on Spatiotemporal Motion Trajectory,” in Proceedings of IAPR 14th International Conference on Pattern Recognition (ICPR1998), pp.1047-1051, August 1998
  67. Kazuhiro Otsuka, Tsutomu Horikoshi, Keihiro Ochiai, Satoshi Suzuki, Fumio Adachi, and Masaharu Fujii, “Precipitation Forecast Based on Segmentation of Radar Echo Motion Field,” in Proceedings of American Meteorological Society 25th Conference on Radar Meteorology, pp. 218-219, September 1997
  68. Kazuhiro Otsuka, Tsutomu Horikoshi, and Satoshi Suzuki, “Image Velocity Estimation From Trajectory Surfaces in Spatiotemporal Space,” in Proceedings of 1997 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR1997), pp.200-205, June 1997【Oral Presentation, Acceptance Ratio=11%】

解説論文

  1. 大塚和弘:「非言語情報が生み出すコミュニケーションのリアリティ」,NTT研究所発 触感コンテンツ専門誌ふるえ,Vol. 8, p. 5, 2016年12月1日発行 
  2. Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, and Junji Yamato, “Prediction of “Who Will Be Next Speaker and When” in Multi-Party Meetings”,NTT Technical Review, vol. 13, No. 7, 2015. 
  3. Kazuhiro Otsuka, Nobuhiro Furuyama, and Mayumi Bono, “The Future of Idobata Kaigi (“Congregation at the Well”): Realizing Natural Conversations with Distance Access,” NII Today, No. 48, pp. 6-7, 2014(掲載2014年1月)
  4. 大塚和弘,古山宣洋,坊農真弓「遠隔地間でも自然な会話を実現する、未来の井戸端会議とは」,国立情報学研究所 NII Today No.62, pp. 6-7, 2013 (掲載2013年12月)
  5. Kazuhiro Otsuka, “MM-Space: Recreating Multiparty Conversation Space by Using Dynamic Displays”, NTT Technical Review, Vol. 10, No. 11, Nov. 2012
  6. 大塚和弘:「動くディスプレイで会話が伝わる」,NTT技術ジャーナル24(9), 27-30, 2012. 
  7. Kazuhiro Otsuka, “Conversation Scene Analysis”, IEEE Signal Processing Magazine, Vol. 28, No. 4, pp. 127-131 (2011) 
  8. 熊野史朗, 大塚和弘, 大和淳司:「頭部姿勢の変動に頑健な表情認識技術–表情から人の気持ちを読み取ることを目指して」,画像ラボ 21(4), 36-41, 2010-04-00
  9. 岡谷貴之, 石川 博, 大塚和弘, 斎藤英雄, 日浦慎作, 勞 世紅:「CVPR2009報告」,電子情報通信学会技術研究報告 109(306), 297-305, 2009-11-26
  10. 大塚和弘, 荒木章子:「会話シーン分析のための音声映像技術 (特集 コミュニケーション科学の融合研究における新潮流)」,NTT技術ジャーナル21(5), 17-20, 2009-05-00
  11. 大塚和弘, 荒木章子:「コミュニケーションを理解する音声・映像技術 (特集 我が国基礎・基盤研究の現状–NTTコミュニケーション科学基礎研究所)」,ITUジャーナル 38(8), 5-7, 2008-08-00
  12. 大塚和弘:「ICMI 2007参加報告」,ヒューマンインタフェース学会誌」, Journal of Human Interface Society: human interface 10(1), 47-48, 2008-02-25
  13. 柏野邦夫,向井 良,大塚和弘:「高速メディア探索 (特集 コミュニケーション環境の未来に向けた研究最前線)」,NTT技術ジャ-ナル 19(6), 29-32, 2007-06-00

招待講演,ゲスト講義

  1. Kazuhiro Otsuka, “Analyzing Multimodal Nonverbal Behaviors in Face-to-Face and Remote Group Meetings -Renewed Motivation and Perspective in the VUCA Era-“, ICMI 2020 Workshop– Insights on Group & Team Dynamics, October 25, 2020 – Utrecht, The Netherlands (Online)
  2. 大塚和弘:「コミュニケーションデータ科学へ向けて 〜文理の分離と邂逅についての一考察〜」立命館大学文学部,2019年11月30日
  3. 大塚和弘:パネリスト「これからのVNV」(他,登壇者:岡本雅史,高梨克也)電子情報通信学会 ヴァーバル・ノンヴァーバル・コミュニケーション研究会第13回VNV年次大会,2019年3月25日
  4. Kazuhiro Otsuka, 国際会議のパネルセッションの登壇者(ICMI2018 Panelist, “Future Challenges for Multimodal Interaction Groups”, Moderator: Hayley Hung, 他の登壇者: Louis-Philippe Morency (CMU), Dirk Heylen (University of Twente), Steve Kozlowski (Michigan State University), Mary J. Waller (Texas Christian University)
  5. 大塚和弘:名古屋大学 情報学研究科 知能システム特論 第14回「マルチモーダルコミュニケーション概論」(2017年7月13日)(大学等の非常勤講師)
  6. 大塚和弘:「VNVとAI:マルチモーダルインタラクションから考えるAIの使い道/向う先」,電子情報通信学会ヴァーバルノンヴァーバルコミュニケーション研究会(VNV)第11回年次大会,2017年3月29日(基調講演)
  7. 堀 貴明, 荒木 章子, 大塚和弘:「招待講演 複数人会話シーン分析の研究と今後の展望 (音声)」,電子情報通信学会技術研究報告 : 信学技報 112(141), 13-18, 2012-07-19 (招待講演)
  8. Kazuhiro Otsuka, “Multimodal Conversation Scene Analysis for Understanding People’s Communicative Behaviors in Face-to-face Meetings”, 14th International Conference on Human-Computer Interaction (HCI International 2011) [再掲](招待講演)
  9. 大塚和弘:「多人数会話における非言語行動の観測と会話状態の自動推測 」,京都大学学術情報メディアセンターセミナー 「多人数インタラクションの分析と応用」 2011年3月15日(大学等の非常勤講師)
  10. 大塚和弘,「パーティクルフィルタとMCMC,そのコミュニケーション科学への応用」,電子情報通信学会 情報理論研究会 若手のための講演会,信学技報, vol. 110, no. 320, IT2010-52, pp. 9-18, 2010年11月(2010年11月30日講演)(招待講演)
  11. 三上弾,大塚和弘,大和淳司,「メモリベースパーティクルフィルタの提案」,パーティクルフィルタ研究会4月講演会(4月30日@工学院大学)(招待講演)
  12. 大塚和弘, ViEW2009(ビジョン技術の実利用ワークショップ): 「人と人とのコミュニケーションを理解する ~マルチモーダル情報処理による会話シーン分析~」,2009年12月3日(招待講演)
  13. Kazuhiro Otsuka, ICCV2009 Workshop (HCI2009) Keynote Presentation, “Understanding How People Communicate With Each Other: Multimodal Approach for Modeling and Recognizing Multiparty Face-to-Face Conversations,”  2009年10月4日(招待講演)
  14. 大塚和弘, NTT CS研オープンハウス×未来想論 研究講演:「人と人との会話を解き明かす~コミュニケーションを科学する映像音声技術~」(2009年6月5日講演,及び,中継,及び,Web公開)
  15. 大塚和弘, 第9回 計測自動制御学会(SICE) システムインテグレーション部門講演会 基調講演 「画像認識に基づくコミュニケーションシーンの分析・理解」(2008年12月5日) (招待講演)
  16. Kazuhiro Otsuka, IDIAP講演会, “Communication Scene Analysis in NTT CS Lab”, (スイス・マルティニ)2008年9月12日
  17. 大塚和弘, コミュニケーションの分析・デザイン研究会,「NTT CS研 におけるコミュニケーション分析研究の概要」,東京電機大学,2008年3月11日
  18. 大塚和弘, 非言語知識研究会 第3回研究会「非言語行動の観測に基づく対面会話シーンの認識・理解」,愛知県産業貿易館西館6階, 2007年12月5日(招待講演)
  19. 大塚和弘, 電子情報通信学会 第12回 ヴァーバル・ノンヴァーバル・コミュニケーション研究会 「ノンバーバル行動に基づく会話構造の確率的推論 ―対面会話シーンの自動的な認識・理解に向けて―」,東京大学本郷キャンパス,2007年11月30日(招待講演)
  20. 大塚和弘, 人工知能学会研究会第48回 言語・音声理解と対話処理研究会 (SIG-SLUD), 「非言語行動の観測に基づく複数人物の会話シーン分析」, No. SIG-SLUD-A602-01, pp. 1-6, November (2006) (招待講演)
  21. Kazuhiro Otsuka, Massachusetts Institute of Technology (MIT)  Computer Science and Artificial Intelligence Laboratory(CSAIL) HCI Seminar Series Spring 2006, “Communication Scene Analysis based on Probabilistic Modeling of Human Gaze Behavior,”2006年4月28日(大学等の非常勤講師)
  22. 大塚和弘, 気象庁 気象衛星センタ 講演会 講師(2001年2月16日)(大学等の非常勤講師)

受賞

  1. 電子情報通信学会HCGシンポジウム2023 特集テーマセッション賞(ソーシャルインタラクション)、田代絢子, 今村まい, 熊野史郎, 大塚和弘:「複数モダリティの非言語情報に基づく対話者の視線機能の分析と認識」2023年12月13日受賞
  2. FIT2022 第21回情報科学技術フォーラムFIT2022奨励賞 武田一輝「対話中の頭部運動機能の解釈の曖昧性を推定する深層回帰モデルの検討」2022年9月15日【指導する学生の受賞】
  3. 電子情報通信学会 HCS研究会賞、大塚和弘:「対話中の非言語行動の機能スペクトラム解析に向けて〜頭部運動を対象とした機能コーパスと深層学習モデルの構築事例〜」、2022年1月29日
  4. FIT2021 第20回情報科学技術フォーラムヤングリサーチャー賞、武田一輝「対話中の頭部運動機能を認識する特徴膨張収縮ニューラルネットワーク」(著者:武田一輝、大塚和弘), 2021年12月21日受賞通知、2022年9月14日授賞式(予定)【指導する学生の受賞】
  5. 電子情報通信学会HCGシンポジウム2021 特集テーマセッション賞、森 駿志、大塚和弘、「複数人対話における深層転移学習による頭部運動相互作用の機能認識」、2021年12月27日受賞
  6. 第20回情報科学技術フォーラム FIT2021奨励賞 武田一輝「対話中の頭部運動機能を認識する特徴膨張収縮ニューラルネットワーク」(著者:武田一輝、大塚和弘), 2021年8月27日受賞【指導する学生の受賞】
  7. 情報処理学会論文誌 特選論文、石井 亮, 大塚和弘, 熊野史朗, 東中竜一郎, 青野裕司,「話者継続・交替時における対話行為と視線行動に基づく共感スキルの推定」, 情報処理学会論文誌, Vol. 62, No.1, pp. 100-114, January, 2021
  8. 電子情報通信学会 HCGシンポジウム2018 特集テーマセッション賞,石井 亮,大塚和弘,熊野史朗,東中竜一郎,富田準二:「話者継続・交替時の視線行動と対話行為に基づく共感スキルの推定」(2018年12月14日)
  9. 電子情報通信学会 HCGシンポジウム2015 オーガナイズドセッション賞,熊野史朗,大塚和弘,石井亮,大和淳司:「集団的一人称視点映像解析に基づく複数人対話の自動視線分析」(2015年12月17日)
  10. 電子情報通信学会 HCGシンポジウム2015 優秀インタラクティブ発表賞(上記1と同内容のポスター発表にて来場者投票により受賞決定),熊野史朗,大塚和弘,石井亮,大和淳司:「集団的一人称視点映像解析に基づく複数人対話の自動視線分析」 (2015年12月17日)
  11. 電子情報通信学会 HCGシンポジウム2015 優秀インタラクティブ発表賞,石井 亮,熊野史朗, 大塚和弘:「複数人対話における視線交差と呼吸動作に基づく次話者と発話開始の予測」(2015年12月17日)
  12. 電子情報通信学会 ヒューマンコミュニケーショングループ 平成26年度ヒューマンコミュニケーション賞,石井亮,大塚和弘,熊野史朗,大和淳司:「複数人対話での話者交替に関する呼吸動作の分析~ 次話者と発話開始タイミングの予測モデルの構築に向けて~」(2014年12月17日)
  13. 16th ACM International Conference on Multimodal Interaction (ICMI2014) Outstanding Paper Award,Ryo Ishii, Kazuhiro Otsuka, Shiro Kumano, Junji Yamato, “Analysis of Respiration for Prediction of Who Will Be Next Speaker and When in Multi-Party Meetings”(2014年11月15日)
  14. 電子情報通信学会HCGシンポジウム2012 優秀インタラクティブ発表賞,熊野史朗,大塚和弘,松田昌史,大和淳司:「二者間の行動の一致性と時間差に基づく外部観察者の共感解釈の分析」(2012年12月12日)
  15. ACM 14th International Conference on Multimodal Interaction (ICMI2012) Outstanding Paper Award,Dinesh Babu Jayagopi, Dairazalia Sanchez-Cortes, Kazuhiro Otsuka, Junji Yamato, Daniel Gatica-Perez, “Linking Speaking and Looking Behavior Patterns with Group Composition, Perception, and Performance”,(2012年10月25日)
  16. 経済産業省 Innovative Technologies 2012,大塚和弘(代表),熊野史朗,石井 亮,大和淳司:「MM-Space:次世代ビデオ会議のための会話場再構成システム」(2012年10月25日)
  17. 経済産業省 Innovative Technologies 2012 特別賞(Ecology),大塚和弘(代表),熊野史朗,石井 亮,大和淳司(上記, Innovative Technologiesの中から更に選出)(2012年10月25日)
  18. 人工知能学会 2011年度 研究会優秀賞,東山英治, 傳 康晴, 坊農真弓,大塚和弘:「ジェスチャーの視点再考」(NII,千葉大との共同研究の成果)(2012年6月14日)
  19. 画像の認識・理解シンポジウムMIRU2011 インタラクティブセッション賞(熊野史朗,大塚和弘,三上弾,大和淳司:「複数人対話を対象とした顔表情の共起パターンの確率モデルに基づく共感状態の推定」2011年7月22日)
  20. 電子情報通信学会 平成22年度論文賞,三上 弾,大塚和弘,大和淳司:「メモリベースパーティクルフィルタ:状態履歴に基づく事前分布予測を用いた頑健な対象追跡」(2011年5月28日)
  21. 電子情報通信学会 平成22年度 喜安善市賞(電子情報通信学会における年間最優秀論文賞に相当.当年度の全掲載(約500本)の内の1本)(2011年5月28日)
  22. 画像の認識・理解シンポジウムMIRU2009 優秀論文賞,三上弾,大塚和弘,大和淳司:「頑健な顔姿勢追跡のための状態履歴の記憶に基づくパーティクルフィルタ」(2009年7月21日)
  23. 電子情報通信学会 マルチメディア・仮想環境基礎研究会 MVE賞,大塚和弘,荒木章子,石塚健太郎,藤本雅清,大和淳司:「多人数会話シーン分析に向けた実時間マルチモーダルシステムの構築~マルチモーダル全方位センサを用いた顔方向追跡と話者ダイアリゼーションの統合~」(2009年1月19日)
  24. 平成19年度(2007年度)NTTコミュニケーション科学基礎研究所 所長表彰 研究開発賞 「マルチモーダル対話解析技術の研究開発」大塚和弘,澤田 宏,大和淳司(2008年4月24日)
  25. 8th Asian Conference on Computer Vision (ACCV2007) Honorable Mention,Shiro Kumano, Kazuhiro Otsuka, Junji Yamato, Eisaku Maeda, and Yoichi Sato, “Pose-Invariant Facial Expression Recognition Using Variable-Intensity Templates” (2007年11月21日)
  26. ACM 9th International Conference on Multimodal Interfaces (ICMI2007) Outstanding Paper Award,Kazuhiro Otsuka, Hiroshi Sawada, Junji Yamato, “Automatic Inference of Cross-modal Nonverbal Interactions in Multiparty Conversations” (2007年 11月14日)
  27. 平成11年度(1999年度) NTTサイバーコミュニケーション総合研究所 総研所長表彰 研究開発奨励賞「Memory-Based Forecastingに向けた映像検索技術の研究開発」大塚和弘(2000年2月7日)
  28. IAPR 10th International Conference on Image Analysis and Processing, Best Paper Award,Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, Haruhiko Kojima, “Memory-based Forecasting of Complex Natural Patterns by Retrieving Similar Image Sequences” (1999年9月28日)
  29. 平成10年度(1998年度) NTTヒューマンインタフェース研究所 所長表彰 特許発明賞「時系列画像動き特徴抽出方法および装置 他17件 」大塚和弘(単独受賞)(1998年5月15日)
  30. 電子情報通信学会 平成9年度学術奨励賞,大塚和弘, 堀越 力, 鈴木 智:「時空間中の運動軌跡に基づく画像速度の推定」(1998年3月28日)
  31. 情報処理学会 第55回全国大会優秀賞,大塚和弘, 堀越 力, 鈴木 智:「時空間中の運動軌跡に基づく密なオプティカルフローの推定」(1998年3月17日)
  32. 平成9年度(1997年度)NTT社長表彰 発明考案賞,鈴木 智,落合慶広,大塚和弘,曽根原 登,鈴木英人:「高速ニューロ学習技術の発明と気象予測方式の実用化」, (1997年7月25日)

外部資金

  • 一般財団法人 テレコム先端技術研究支援センター SCAT研究費助成R4年度「非言語機能に基づく遠隔会議における相互理解・合意形成過程の解明と推定技術の構築」2023年度〜2025年度
  • 公益財団法人 中部科学技術センター 人工知能研究助成 R3年度、「非言語機能特徴に基づく対話者の主観的印象の予測・説明モデルの構築」、2022年度〜2023年度
  • JSPS 科研費 基盤C(代表)JP21K12011、「マルチモーダル非言語行動の機能スペクトラム解析に向けた計算基盤の構築」、2021年度〜2023年度
  • 公益財団法人 立石科学技術振興財団 研究助成A(代表)K32XXV567「対話中の非言語行動の意味・機能を推定する機械学習モデルの構築」、2021年度
  • 公益財団法人 栢森情報科学振興財団 研究助成(代表)K32研ⅩⅩⅤ第567号「頭部ジェスチャの意味理解に基づく会話者の心的状態の推測に関する研究」、2020年度〜2022年度

国内口頭発表(研究会,全国大会,シンポジウムなど)

  1. 田代絢子, 今村まい, 熊野史郎, 大塚和弘:「複数モダリティの非言語情報に基づく対話者の視線機能の分析と認識」, 電子情報通信学会HCGシンポジウム2023 、2023年12月12日発表
  2. 今村まい, 武田一輝, 熊野史朗, 大塚和弘:「対話中に現れる顔表情と頭部運動の相乗機能の分析と認識モデルの構築」、電子情報通信学会HCGシンポジウム2022 、発表2022年12月16日
  3. 武田 一輝, 大塚 和弘:「対話中の頭部運動機能の解釈の曖昧性を推定する深層回帰モデルの検討」第21回情報科学技術フォーラム(FIT2021)、発表2022年9月15日【FIT奨励賞】
  4. 大土隼平, 三好一輝, 石井陽子, 石井 亮, 永徳真一郎, 大塚和弘:「非言語機能特徴に基づく対話者の主観的印象の予測・説明モデルの構築」、人工知能学会全国大会論文集(JSAI2022), 2022
  5. 森 駿志, 大塚和弘,「複数人対話における深層転移学習による頭部運動相互作用の機能認識」、 電子情報通信学会HCGシンポジウム2021 、発表2021年12月17日【特集テーマセッション賞】
  6. 武田一輝, 大塚和弘:「対話中の頭部運動機能を認識する特徴膨張収縮ニューラルネットワーク」、第20回情報科学技術フォーラム(FIT2021)、発表2021年8月27日【FIT奨励賞、FIT2021ヤングリサーチャー賞】
  7. 大土隼平, 石井陽子, 中谷桃子, 大塚和弘:「頭部運動機能特徴を用いた複数人対話における対話参加者の主観的印象の予測」、電子情報通信学会 ヒューマンコミュニケーション基礎研究会(HCS),発表2021年8月21日
  8. 大塚和弘:「対話中の非言語行動の機能スペクトラム解析に向けて〜頭部運動を対象とした機能コーパスと深層学習モデルの構築事例〜」、電子情報通信学会 ヒューマンコミュニケーション基礎研究会(HCS),発表2021年8月21日
  9. 大塚和弘,春日啓祐,マルティナケーラー:「畳み込みニューラルネットワークを用いた複数人会話における対人視線方向の推定」,電子情報通信学会 ヒューマンコミュニケーション基礎研究会(HCS),発表2019年8月23日
  10. 大塚和弘:「テレプレゼンス/コミュニケーション理論の構築に向けた分析的・構成的研究の連携を探る ~キネティック・テレプレゼンスシステムMMSpaceの事例から~」,電子情報通信学会 ヴァーバル・ノンヴァーバル・コミュニケーション研究会(VNV) 第13回年次大会,発表2019年3月25日
  11. 石井 亮,大塚和弘,熊野史朗,東中竜一郎,富田準二:「話者継続・交替時の視線行動と対話行為に基づく共感スキルの推定」,電子情報通信学会HCGシンポジウム2018,2018年12月13日【特集テーマセッション賞受賞】
  12. 大塚和弘:「キネティックテレプレゼンスMMSpace:小規模グループ対グループ遠隔会話場の構成と非言語行動解析」,電子情報通信学会メディアエクスペリエンス・バーチャル環境基礎研究会(MVE),信学技報, vol. 118, no. 95, MVE2018-2, pp. 27-32, 2018年6月,発表2018年6月14日
  13. Layla C. Antaket, Masafumi Matsuda, Kazuhiro Otsuka, and Shiro Kumano, “Analyzing Generation and Cognition of Emotional Congruence using Empathizing-Systemizing Quotient”, 第13回日本感性工学会春季大会, 査読セッション, WG1-1, 2018.
  14. 岡田将吾,大塚和弘:「会話中に表出するハンドジェスチャに基づく話者の発話単語の推定」,電子情報通信学会技術研究報告パターン認識・メディア理解(PRMU),vol. 117, no. 391, PRMU2017-133, pp. 209-215, 2018年1月19日発表
  15. アンタケ玲羅,松田 昌史,大塚和弘,熊野史朗:「二者情動一致の認知モデルの提案,および,心理特性との関連分析」,電子情報通信学会HCGシンポジウム2017,HCG2017-A-1-3,2017年12月13日
  16. 石井 亮,熊野史朗,大塚和弘:「話者継続・交替時の視線行動に基づく共感スキルの推定」,電子情報通信学会技術研究報告ヒューマンコミュニケーション基礎(HCS),  HCS2017-50, no. 177, pp. 19-24, 2017年8月20日
  17. 熊野史朗,石井 亮,大塚和弘:「三者間共感理論における本人・傍参与者・外部観察者による評定の違いの分析」,電子情報通信学会技術研究報告,ヒューマンコミュニケーション基礎(HCS)HCS2017-49, no. 177, pp. 13-18, 2017年8月20日
  18. 大薮将士,Debora Zrinscak,大塚和弘:「深層学習を用いた会話中の人物頭部ジェスチャ認識」,2017年人工知能学会全国大会(第31回), 2017-05-24
  19. 熊野史朗, 石井 亮, 大塚和弘:「評定者個人に特化した他者感情理解モデル」,2017年人工知能学会全国大会(第31回), 2017-05-24
  20. 大塚和弘:「VNVとAI:マルチモーダルインタラクションから考えるAIの使い道/向う先」,電子情報通信学会 ヴァーバル・ノンヴァーバル・コミュニケーション研究会(VNV)第11回年次大会,2017年3月29日
  21. 石井 亮, 熊野史朗, 大塚和弘:「複数人対話における口の開閉パターンに基づく次話者予測」,HCGシンポジウム2016,HCG2016-A-2-1, pp. 98-104, 2016-12-07
  22. Shiro Kumano, Kazuhiro Otsuka, Masafumi Matsuda, and Junji Yamato, “Analyzing Empathy in Multiparty Conversation via Collective Impressions,” Winter Workshop on Mechanism of Brain and Mind 2016 (脳と心のメカニズム」冬のワークショップ 2016), 2016
  23. 熊野史朗,大塚和弘,石井亮,大和淳司:「集団的一人称視点映像解析に基づく複数人対話の自動視線分析」,電子情報通信学会HCGシンポジウム,pp.319-326, 2015-12-17【優秀インタラクティブ発表賞受賞】【オーガナイズドセッション賞受賞】
  24. 石井 亮,熊野史朗, 大塚和弘:「複数人対話における視線交差と呼吸動作に基づく次話者と発話開始の予測」,HCGシンポジウム2015, pp. 20-26, 2015-12-17【優秀インタラクティブ発表賞受賞】
  25. 石井 亮, 大塚和弘, 熊野史朗, 大和淳司:「複数人対話での視線交差のタイミング構造に基づく次話者と発話開始タイミングの予測」,人工知能学会全国大会論文集,pp. 1-4, 2015
  26. 石井 亮, 大塚和弘, 熊野史朗, 大和淳司:「複数人対話での話者交替に関する呼吸動作の分析 ~次話者と発話開始タイミングの予測モデルの構築に向けて~」,信学技報, vol.114, no.189, HCS2014-49, pp.35-40,2014-08-23【ヒューマンコミュニケーション賞(HC賞)受賞】
  27. 石井 亮,小澤史朗,小島 明,中野有紀子,林 佑樹,大塚和弘:「MIOSS:3次元空間を重畳する鏡インタフェース」,第13回情報科学技術フォーラム(FIT 2014),第3分冊RK-003,pp.55-60,2014-09-05【FIT奨励賞 受賞(第一著者)】
  28. 石井亮, 大塚和弘, 熊野史朗, 松田昌史, 大和淳司:「複数人対話における注視遷移パターンに基づく次話者と発話開始タイミングの予測」,人工知能学会 言語・音声理解と対話処理研究会(SLUD),2013-09-19
  29. 大塚和弘:「コミュニケーションシーンの分析・理解と会話場再構成の一方法論」,電子情報通信学会 ヴァーバル・ノンヴァーバル・コミュニケーション研究会(VNV)第7回年次大会,2013年3月29日
  30. 松田 昌史, 本間元康, 石井 亮, 熊野史朗, 大塚和弘, 大和淳司:「視線一致範囲測定に関する探索的検討 ~ 疎らな実験データの解析 ~」,電子情報通信学会技術研究報告ヒューマンコミュニケーション基礎(HCS)HCS2012-108, pp.173-178, 2013-03-05
  31. 松田昌史,本間元康,熊野史朗,石井亮,大塚和弘,大和淳司:「アイコンタクト知覚範囲 の性差に関する探索的検討 -社交性不安およびアイコンタクト相手の性別の影響-」,電子情報通信学会技術研究報告 ヒューマンコミュニケーション基礎HCS, 112(412), pp. 77-82, 2013
  32. 熊野史朗, 大塚和弘, 松田昌史, 大和淳司:「二者間の行動の一致性と時間差に基づく外部観察者の共感解釈の分析」,HCGシンポジウム2012, December 2012【優秀インタラクティブセッション賞受賞】
  33. 松田昌史,本間元康,熊野史朗,石井亮,大塚和弘,大和淳司:「アイコンタクト知覚体積の規定因に関する探索的研究」,日本社会心理学会大会発表論文集 2012
  34. 大塚和弘,熊野史朗,三上 弾,松田昌史,大和淳司:「MM-Space:動的投影を用いた頭部運動の物理的補強表現に基づく会話場再構成」,情報処理学会インタラクション2012,pp. 33-40, 口頭発表(2012年3月15日),及び,インタラクティブ発表(3月17日)
  35. 松田昌史, 八重樫海人, 大坊郁夫, 三上 弾, 熊野史朗, 大塚和弘, 大和淳司:「ビデオ通信環境における対人印象の規定因に関する探索的実験研究 : 第三者に対する映像呈示と音声呈示の比較」,電子情報通信学会技術研究報告 ヒューマンコミュニケーション基礎(HCS)111(464), pp. 49-54, 2012-02-27
  36. 松田昌史, 八重樫海人, 大坊郁夫, 三上 弾, 熊野史朗, 大塚和弘, 大和淳司:「ビデオ通信環境における対人印象に関する探索的研究 : 当事者評価と傍観者評価の比較」,電子情報通信学会技術研究報告 ヒューマンコミュニケーション基礎(HCS) 111(393), pp. 27-32, 2012-01-13
  37. 熊野史朗, 大塚和弘, 三上弾, 大和淳司:「複数人対話を対象とした表情と視線に基づく共感/反感の推定モデルとその評価」,電子情報通信学会技術報告 ヒューマンコミュニケーション基礎研究会 (HCS)(フォーラム顔学2011共催, HCSジョイントセッション), HCS 111(214), pp. 33-38,2011年9月
  38. 熊野史朗, 大塚和弘, 三上弾, 大和淳司:「複数人対話を対象とした顔表情の共起パターンの確率モデルに基づく共感状態の推定」, 画像の認識・理解シンポジウム(MIRU), 2011 【インタラクティブセッション賞受賞】
  39. Dan Mikami, Kazuhiro Otsuka, Shiro Kumano, and Junji. Yamato, “Enhancing Memory-based Particle Filter with Detection-based Memory Acquisition for Robustness under Severe Occlusions,”画像の認識・理解シンポジウム(MIRU2011), 2011
  40. 東山英治, 傳 康晴, 坊農真弓,大塚和弘:「ジェスチャーの視点再考」, 第62回人工知能学会 言語・音声理解と対話処理研究会 SIG-SLUD-B101-15, pp.71-74, 2011-07-22【人工知能学会研究会優秀賞(2011年度)(2012年6月14日表彰)】
  41. 菊地浩平, 坊農真弓, 大塚和弘:「手話会話における修復組織の分析」,電子情報通信学会技術研究報告 ヒューマンコミュニケーション基礎(HCS) 110(459), pp. 61-65, 2011-02-28
  42. 熊野史朗, 大塚和弘, 三上 弾, 大和淳司:「複数人対話を対象とした表情と視線に基づく共感/反感の推定モデルとその評価 : 対話者間に生まれる感情をいかに理解するか?」,電子情報通信学会技術研究報告 ヒューマンコミュニケーション基礎(HCS) 111(214), pp. 33-38, 2011-09-16
  43. 大塚和弘,「パーティクルフィルタとMCMC,そのコミュニケーション科学への応用」,電子情報通信学会 情報理論研究会 若手のための講演会,信学技報, vol. 110, no. 320, IT2010-52, pp. 9-18, 2010年11月(2010年11月30日講演)【招待講演】
  44. 三上 弾,大塚和弘,大和淳司:「姿勢とアピアランスの変化に頑健な対象追跡を実現するアピアランス統合メモリベースパーティクルフィルタ」,画像の認識・理解シンポジウム(MIRU2010)【優秀論文セッション採択】
  45. 三上 弾,大塚和弘,大和淳司:「頑健な顔姿勢追跡のための状態履歴の記憶に基づくパーティクルフィルタ」, 画像の認識・理解シンポジウム2009,2009-07-20 【優秀論文賞受賞】
  46. 小笠原 基,石塚健太郎,荒木章子,藤本雅清,中谷智広,大塚和弘:「SN比最大化ビームフォーマを用いたオンライン会議音声強調」,日本音響学会2009年春季研究発表会, 2009-03-17
  47. 石塚健太郎,荒木章子,大塚和弘,中谷智広,藤本雅清:「音響情報と映像情報から得られる位置情報の統合による話者ダイアライゼーション」,日本音響学会2009年春季研究発表会, 2009-03-19
  48. 石塚健太郎, 荒木章子, 大塚和弘, 藤本雅清, 中谷智広:「音響情報と映像情報の統合による多人数会話における話者決定技術(音響処理・話者同定,第10回音声言語シンポジウム)」電子情報通信学会技術研究報告. SP, 音声 108(338), pp. 25-30, 2008-12-02
  49. 大塚和弘, 荒木章子, 石塚健太郎, 藤本雅清, 大和淳司:「多人数会話シーン分析に向けた実時間マルチモーダルシステムの構築 : マルチモーダル全方位センサを用いた顔方向追跡と話者ダイアリゼーションの統合」電子情報通信学会技術研究報告 MVE, マルチメディア・仮想環境基礎 108(328), pp. 55-62, 2008-11-20【MVE賞受賞】
  50. 熊野史朗, 大塚和弘, 大和淳司, 前田英作, 佐藤洋一:「パーティクルフィルタと勾配法の組み合わせによる頭部姿勢変動に頑健な表情認識手法」, 画像の認識・理解シンポジウム(MIRU), 2008
  51. 大塚和弘, 澤田 宏, 大和淳司:「複数人会話における非言語インタラクション構造の推定–誰が誰にどのように反応しているか?」,人工知能学会 言語・音声理解と対話処理研究会(SLUD) 52, pp. 51-58, 2008-03-07
  52. 大塚和弘:「ノンバーバル行動に基づく会話構造の確率的推論 ―対面会話シーンの自動的な認識・理解に向けて―」,電子情報通信学会 ヴァーバル・ノンヴァーバル・コミュニケーション研究会(VNV)第12回研究会,2007年11月30日【招待講演】
  53. 熊野史朗, 大塚和弘, 大和淳司, 前田英作, 佐藤洋一: 「表情認識のための変動輝度テンプレートとその頭部姿勢変動に対する頑健性の一検討」,情報処理学会研究報告 CVIM [コンピュータビジョンとイメージメディア] 2007(87), pp. 145-152, 2007-09-03
  54. 熊野史朗, 大塚和弘, 大和淳司, 前田英作, 佐藤洋一:「変動輝度テンプレートを用いた頭部姿勢変動に頑健な表情認識手法」, 画像の認識・理解シンポジウム(MIRU2007), pp. 1259-1264, July 2007
  55. Oscar Mateo Lozano and Kazuhiro Otsuka, “Simultaneous Real-time 3D Visual Tracking of Multiple Objects using a Stream Processor,” 画像の認識・理解シンポジウム(MIRU2007)DS-01 (2007)
  56. 澤田 宏, 荒木章子, 大塚和弘, 藤本雅清, 石塚健太郎, 「多人数マイクでの発話区間検出 – ピンマイクでの事例 -」,日本音響学会講演論文集, 3-Q-15, 春季, 2007
  57. 大塚和弘:「非言語行動の観測に基づく複数人物の会話シーン分析」, 人工知能学会研究会資料第48回 言語・音声理解と対話処理研究会 (SIG-SLUD), No. SIG-SLUD-A602-01, pp. 1-6, 2006-11-16【招待講演】
  58. 大塚和弘,大和淳司,村瀬洋:「複数人物の対面会話シーンを対象とした画像中の人物頭部追跡に基づく会話構造のモデル化と確率的推論」,画像の認識・理解シンポジウム2006, pp. 84-91, 2006
  59. 木村昭悟, 川西隆仁, 大塚和弘, 柏野邦夫:「重み付き特徴点照合に基づく高速画像検索」,電子情報通信学会技術研究報告. PRMU, パターン認識・メディア理解 105(118), pp. 7-12, 2005-06-09
  60. 竹前嘉修, 大塚和弘, 武川直樹:「複数人対話シーンの映像編集のための対話参加者の視線に基づく映像切り替え方法とその効果」,電子情報通信学会技術研究報告. HIP ヒューマン情報処理 103(744), pp. 1-6, 2004-03-19
  61. 竹前嘉修, 大塚和弘, 武川直樹:「対話参加者の視線に基づく映像切り替え方法とその効果(A-14. ヒューマンコミュニケーション基礎)」,電子情報通信学会総合大会講演論文集 2004年 基礎・境界, p. 277, 2004-03-08
  62. 竹前嘉修, 大塚和弘, 武川直樹:「視線の機能に着目した映像切り替え規則とその効果 : 人に分かりやすい映像生成を目指して」,電子情報通信学会技術研究報告. HCS, ヒューマンコミュニケーション基礎 102(734), pp. 49-54, 2003-03-11
  63. 竹前嘉修, 大塚和弘, 武川直樹:「視線情報に基づく映像切り替え規則とその評価」,電子情報通信学会総合大会講演論文集 2003年 基礎・境界,  p. 277, 2003-03-03
  64. 大塚和弘, 武川直樹:「多視点観測に基づく複数物体の相互オクルージョン解析と逐次状態推定」,情報処理学会研究報告. CVIM, [コンピュータビジョンとイメージメディア] 2003(2), pp. 123-130, 2003-01-16
  65. 大塚和弘, 堀越 力, 児島 治彦:「気象レーダ画像を対象とした検索に基づく映像予測の検討」,電子情報通信学会総合大会講演論文集 2000年.情報・システム(2),  p. 160, 2000-03-07
  66. 大塚和弘, 堀越 力, 曽根原 登:「映像予測のための検索類似尺度の検討」,電子情報通信学会総合大会講演論文集 1999年.情報・システム(2),  p. 140, 1999-03-08
  67. 小田寿則, 落合慶広, 大塚和弘, 曽根原 登:「ITSのための局地気象予測」,電子情報通信学会ソサイエティ大会講演論文集 1998年.ITS, pp. 133-134, 1998-09-07
  68. 大塚和弘, 堀越 力, 小田寿則, 曽根原 登:「局所降水予測に向けた類似気象パターン検索」,電子情報通信学会ソサイエティ大会講演論文集 1998年.ITS, pp. 131-132, 1998-09-07
  69. 大塚和弘, 堀越 力, 鈴木 智:「時空間中の運動軌跡に基づくテンポラルテクスチャーの特徴抽出」,電子情報通信学会総合大会講演論文集 1998年.情報・システム(2), p. 266, 1998-03-06
  70. 小田寿則, 大塚和弘, 落合慶広, 鈴木 智:「ニューロセグメント法による短時間降水予測精度の改善」,電子情報通信学会総合大会講演論文集1998年.情報・システム(2), p. 160, 1998-03-06
  71. 大塚和弘, 堀越 力, 鈴木 智, 藤井雅晴:「時空間画像解析によるレーダエコーパターンの特徴抽出と分類」,日本気象学会大会講演予講集 72, p. 66, 1997-10
  72. 大塚和弘, 堀越 力, 鈴木 智:「時空間中の運動軌跡に基づく密なオプティカルフローの推定」,情報処理学会全国大会講演論文集 第55回平成9年後期(2),  pp. 266-267, 1997-09-24
  73. 落合慶広, 鈴木 智, 大塚和弘, 小田寿則, 境野英朋, 安達文夫:「局地・短時間気象予測システム:My Weather」,電子情報通信学会技術研究報告  オフィスシステム(OFS) 97(212), pp. 87-94, 1997-07-25
  74. 落合慶広, 鈴木英人, 大塚和弘, 鈴木 智:「ニューロ気象予測システムMy Weather」,日本気象学会1997年度春季大会講演予講集 71, p. 40, 1997-05-22
  75. 大塚和弘, 堀越 力, 鈴木 智:「時空間速度場の分割に基づく降水予測」,情報処理学会全国大会講演論文集 第54回平成9年前期(2), pp. 409-410, 1997-03-12
  76. 落合慶広, 鈴木英人, 大塚和弘, 鈴木 智:「気象予測システム : My Weatherの性能評価」電子情報通信学会総合大会講演論文集 1997年.情報システム(1), p. 314, 1997-03-06
  77. 大塚和弘, 堀越 力, 鈴木 智:「時空間中の運動軌跡に基づく密なオプティカルフローの推定」,情報処理学会第55回全国大会,p. 2AB-6, 2007 【大会優秀賞受賞】
  78. 大塚和弘, 堀越 力, 鈴木 智:「時空間中の運動軌跡に基づく画像速度の推定」,電子情報通信学会総合大会講演論文集1997年.情報システム(2), p. 413, 1997-03-06 【学術奨励賞受賞】
  79. 大塚和弘, 堀越 力, 鈴木 智:「時空間画像中の運動軌跡の統合に基づくオプティカルフロー推定法」,情報処理学会研究報告. CVIM [コンピュータビジョンとイメージメディア] 97(10), pp. 75-81, 1997-01-23日
  80. 大塚和弘, 落合慶広, 鈴木 智:「時系列画像パターンに対するニューラルネットの動き学習能力の検証」,電子情報通信学会ソサイエティ大会講演論文集 1996年.情報・システム, p. 325, 1996-09-18
  81. 大塚和弘, 栗本雅水, 石井六哉:「複合型ニューラルネットによる劣化画像の復元」,電子情報通信学会技術研究報告. IE, 画像工学 93(14), pp. 1-8,1993-04

発明・特許(登録済のみ)

  1. 石井 亮,大塚和弘,熊野史朗:「コミュニケーションスキル評価システム、コミュニケーションスキル評価装置及びコミュニケーションスキル評価プログラム」,特願2015-251203,特許6383349,2015年12月24日出願,2018年8月10日登録
  2. 石井 亮,大塚和弘,熊野史朗:「音声処理システム、音声処理装置および音声処理プログラム」,特願2015-252448,特許6363987,2015年12月24日出願,2018年7月6日登録
  3. 石井 亮,大塚和弘,熊野史朗:「コミュニケーションスキル評価システム、コミュニケーションスキル評価装置及びコミュニケーションスキル評価プログラム」,特願2015-251546,特許6363986,2015年12月24日出願,2018年7月6日登録
  4. 石井 亮,大塚和弘,熊野史朗:「会話支援システム、会話支援装置及び会話支援プログラム」,特願2015-252447,特許6335157,2015年12月24日出願,2018年5月11日登録
  5. 熊野史朗,大塚和弘,石井 亮,大和淳司:「視線計測装置、視線計測方法、およびプログラム」,特願2015-086667,特許6377566,2015年4月21日出願,2016年12月8日登録
  6. 大塚和弘,熊野史朗,石井 亮:「映像表示システム」,特願2013-237794,特許6208553, 2013年11月18日出願,2017年9月15日登録
  7. 熊野史朗,大塚和弘,大和淳司:「感情情報表示制御装置、その方法及びプログラム」,特願2013-211507,特許6023685,2013年10月9日出願,2016年10月14日登録
  8. 熊野史朗,大塚和弘,大和淳司:「感情情報表示制御装置、その方法及びプログラム」,特願2013-211506,特許6023684,2013年10月9日出願,2016年10月14日登録
  9. 石井 亮,大塚和弘,熊野史朗,松田昌史,大和淳司:「推定装置、推定方法、およびプログラム」,特願2013-121552,特許5989603,2013年6月10日出願,2016年8月19日登録
  10. 熊野史朗,大塚和弘,松田昌史,石井 亮,大和淳司:「対人認知傾向モデル学習装置、対人認知状態推定装置、対人認知傾向モデル学習方法、対人認知状態推定方法及びプログラム」,特願2013-162921,特許5931021,2013年8月6日出願,2016年5月13日登録
  11. 熊野史朗,大塚和弘,松田昌史,大和淳司:「対話状態推定装置、対話状態推定方法、およびプログラム」,特願2012-252982,特許5930946,2012年11月19日出願,2016年5月13日登録
  12. 熊野史朗,大塚和弘,大和淳司:「対話傾向得点化装置、方法及びプログラム」,特願2013-199559,特許5921507,2013年9月26日出願,2016年4月22日登録
  13. 熊野史朗,大塚和弘,大和淳司:「遠隔対話装置及び方法」,特願2013-211504,特許5909475,2013年10月9日出願,2016年4月22日登録
  14. 熊野史朗,大塚和弘,大和淳司:「共感解釈推定装置、方法、プログラム」,特願2013-199558,特許5909472,2013年9月26日出願,2016年4月1日登録
  15. 熊野史朗,大塚和弘,大和淳司:「感情検索装置、方法及びプログラム」,特願2013-199557,特許5840186,2013年9月26日出願,2015年11月20日登録
  16. 三上 弾,大塚和弘,熊野史朗,柏野邦夫,大和淳司:「状態追跡装置、方法、及びプログラム」,特願2012-068185,特許5791555,2012年3月23日出願,2015年8月14日登録
  17. 大塚和弘,熊野史朗,大和淳司:「映像会話システム」,特願2012-127662,特許5781017,2012年6月5日出願,2015年7月24日登録
  18. 三上 弾,大塚和弘,熊野史朗,大和淳司,柏野邦夫:「時間的再現確率推定装置、状態追跡装置、方法、及びプログラム」,特願2012-068184,特許5746078,2012年3月23日出願,2015年5月15日登録
  19. 三上 弾,大塚和弘,熊野史朗,大和淳司:「状態追跡装置、方法、及びプログラム」,特願2011-104192,特許5674550,2011年5月9日出願,2015年1月9日登録
  20. 大塚和弘,熊野史朗,三上 弾,松田昌史,大和淳司:「会話映像表示システム」,特願2011-254857,特許5656809,2011年11月22日出願,2014年12月5日登録
  21. 三上 弾,大塚和弘,大和淳司:「状態予測装置、状態予測方法および状態予測プログラム」,特願2010-142631,特許5580669,2010年6月23日出願,2014年7月18日登録
  22. 熊野史朗,大塚和弘,三上 弾,大和淳司,前田英作,佐藤洋一,蘇鷺梅:「表情学習装置、表情認識装置、表情学習方法、表情認識方法、表情学習プログラム及び表情認識プログラム」,特願2010-143751,特許5485044,2010年6月24日出願,2014年2月28日登録
  23. 熊野史朗,大塚和弘,三上 弾,大和淳司:「対話状態推定装置、方法、及びプログラム」,特願2011-049284,特許5437297,2011年3月7日出願,2013年年12月20日登録
  24. 三上 弾,田 黎,大塚和弘,大和淳司:「状態推定装置、状態推定方法、およびプログラム」,特願2010-140962,特許5436351,2010年6月21日出願,2013年12月20日登録
  25. 熊野史朗,大塚和弘,三上 弾,大和淳司:「表情認識装置、人物間感情推定装置、表情認識方法、人物間感情推定方法、及びプログラム」,特願2009-230808,特許5349238,2009年10月2日出願,2013年8月30日登録
  26. 三上 弾,大塚和弘,大和淳司:「状態推定装置、状態推定方法、およびプログラム」,特願2010-140961,特許5340228,2010年6月21日出願,2013年8月16日登録
  27. 熊野史朗, 大塚和弘, 三上 弾, 大和淳司, 前田英作, 佐藤洋一, 蘇鷺梅:「顔表情増幅装置、表情認識装置、顔表情増幅方法、表情認識方法、及びプログラム」,特願2010-146531,特許5300795,2010年06月28日出願, 2013年06月28日登録
  28. 石塚健太郎, 荒木章子, 大塚和弘, 藤本雅清, 中谷智広:「複数信号区間推定装置とその方法とプログラム」,特願2008-303615,特許5215826,2008年11月28日出願, 2013年03月08日登録
  29. 三上 弾, 大塚和弘,大和淳司:「時系列パラメータ推定装置、時系列パラメータ推定方法、時系列パラメータ推定プログラム」,特願2008-290228,特許5044528,2008年11月12日出願,2012年07月20日登録
  30. 三上 弾,大塚和弘,大和淳司:「時系列パラメータ推定装置、時系列パラメータ推定方法、時系列パラメータ推定プログラム」,特願2008-290139,特許5044527,2008年11月12日出願,2012年07月20日登録
  31. 大塚和弘, 大和淳司, 澤木美奈子, 前田英作, 佐藤洋一, 熊野史朗:「テンプレート作成装置及び表情認識装置並びにその方法、プログラム及び記録媒体」,特願2007-284029,特許4942197,2007年10月31日出願,2012年03月09日登録
  32. 大塚和弘, 三上 弾, 大和淳司, 石塚健太郎, 藤本雅清, 荒木章子:「映像音声処理装置、映像音声処理方法、映像音声処理プログラム」,特願2009-033169,特許4934158,2009年02月16日出願,2012年02月24日登録
  33. 大塚和弘, 大和淳司:「会話構造推定方法、プログラム、および記録媒体」,特願2005-164395,特許4804801,2005年06月03日出願,2011年08月19日登録
  34. 澤田 宏, 荒木章子, 大塚和弘, 藤本雅清, 石塚健太郎:「多音源有音区間判定装置、方法、プログラム及びその記録媒体」,特願2006-344045,特許4746533,2006年12月21日出願,2011年05月20日登録
  35. 大塚和弘, 武川直樹:「物体追跡方法、物体追跡装置、物体追跡方法のプログラム並びにそのプログラムを記録した記録媒体」,特願2003-006481,特許4070618,2003年01月15日出願,2008年01月25日登録
  36. 大塚和弘, 堀越 力, 鈴木 智:「時系列画像特徴抽出方法及びその装置並びにこの方法を記録した記録媒体」,特願平10-276006,特許3575293,1998年09月29日出願,2004年07月16日登録
  37. 大塚和弘, 堀越 力, 児島 治彦:「時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体」,特願平11-130004,特許3565087,1999年05月11日出願,2004年06月18日登録
  38. 大塚和弘, 堀越 力, 鈴木 智:「時系列画像検索方法、装置、および時系列画像検索プログラムを記録した記録媒体」,特願平10-149738,特許3483113,1998年05月29日出願,2003年10月17日登録
  39. 大塚和弘, 堀越 力, 境野英朋, 鈴木 智:「気象画像予測方法、装置および気象画像予測プログラムを記録した記録媒体」,特願平09-340135,特許3458940,1997年12月10日出願,2003年08月08日登録
  40. 毛利仁士, 堀越 力, 小川智章, 安達文夫, 大塚和弘, 曽根原 登:「交通状況予測方法、装置、および交通状況予測プログラムを記録した記録媒体」,特願平10-236003,特許3441053,1998年08月21日出願,2003年06月20日登録
  41. 境野英朋, 堀越力, 大塚和弘, 鈴木 智:「大局的雨域予測装置」,特願平08-347683,特許3377071,1996年12月26日出願,2002年12月06日登録
  42. Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, “Method and equipment for extracting image features from image sequence,” 米国特許US 6263089,1998年10月1日出願,2001年7月17日登録
  43. 大塚和弘, 落合慶広, 鈴木 智, 曽根原 登:「気象予測装置」,特願平07-308828,特許3181018,1995年11月28日出願,2001年04月20日登録
  44. Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, Hidetomo Sakaino, “Method and equipment for weather image prediction,” マレーシア特許MY-118014-A,1997年12月11日出願,2004年8月30日登録
  45. Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, Hidetomo Sakaino, “Method and equipment for weather image prediction,”英国特許GB2320830,1997年12月11日出願,2000年10月18日登録
  46. Kazuhiro Otsuka, Tsutomu Horikoshi, Satoshi Suzuki, Hidetomo Sakaino, “Method and equipment for weather image prediction,” 米国特許US 5974360,1997年12月12日出願,1999年10月26日登録

報道

  1. 日経コンピュータ(2013/2記事掲載)
  2. TOKYO MX TV (2012/11/5)
  3. ロイター配信(2012/11/1)
  4. 日経産業新聞(2012/10/26)
  5. 日本テレビ スッキリ!!「近未来デジタル技術を体験 デジタルコンテンツEXPO」(2012/10/26)
  6. テレビ東京(2012/10/25WBS) 「デジタルで変わる近未来生活」産経新聞朝刊1面電子透かし記事(2012/10/26)
  7. NHK(2012/10/25おはよう日本(映像のみ) 10/27午前(インタビュー))
  8. ブラジルレコードTV,’Tecnologia pode ajudar a diminuir a distância entre as pessoas’(2012年6月27日JST)
  9. テレビ大阪『new BIZ』2012年6月8日
  10. KBS京都『京biz S』,2012年6月8日
  11. 京都新聞「顔の動きで画面上下左右」,2012年6月8日,18面
  12. 朝日新聞 京都版2010年5月28日「NTT研究所が最新技術を公開」
  13. 京都新聞 2010年5月28日「会話能力即座に分析」
  14. 日経新聞 2010年5月7日「発言者識別し議事録」
  15. 電経新聞2009年5月4日4面 研究派No.96「マルチモーダル対話シーン解析」
  16. 日本実業出版社,「安全と管理」誌 「ZOOM UP 会話の流れのリアルタイム分析が可能な コミュニケーションツール」2008年11月号(10月15日発行)
  17. 日刊工業新聞 2008年6月9日 「注目度分かります」
  18. 映像新聞 2008年6月9日 「『会話シーン分析』なども公開」
  19. 日刊工業新聞 2008年2月5日一面「表情・しぐさで”空気読めます”  TV会議向けシステム NTTが開発」

展示会

  1. 2016年6月2日〜 3日 NTTコミュニケーション科学基礎研究所オープンハウス2016 研究展示<デモ展示>「離れていても目と目を合わせて会話が出来ます ~キネティックアバタを用いた視線を交わせるテレプレゼンス~」大塚和弘,石井 亮,米家 惇,寺島 裕貴(来場者数:約1300名)
  2. 2015年6月4日〜 5日 NTTコミュニケーション科学基礎研究所オープンハウス2015 研究展示「次は誰が話す?いつ話す? ~視線と呼吸動作を用いた次話者とその発話開始時刻の予測~」石井 亮,大塚和弘,熊野史朗,大和淳司(来場者数:約1200名)
  3. 2014年6月5日〜 6日 NTTコミュニケーション科学基礎研究所オープンハウス2014 研究展示<デモ展示>「動きに感じる会話の場~映像と機械運動の同時提示に基づく複数人会話の表現~」大塚和弘,石井 亮,大塚和弘,熊野史朗,大和淳司(来場者数:約1070名)
  4. 2013年6月6日〜 7日 NTTコミュニケーション科学基礎研究所オープンハウス2013 研究展示「せつなの微笑みがこころを伝える ~対話者間の共感/反感に関する客観的解釈モデルの提案~」熊野史朗,大塚和弘,松田昌史,石井亮,大和淳司(来場者数:約1140名)
  5. 2012年10月25日(木)~27日(土) デジタルコンテンツEXPO2012「MM-Space:次世代ビデオ会議のための会話場再構成システム」大塚和弘,熊野史朗,松田昌史,大和淳司【経済産業省Innovative Technologies 2012,及び,Innovative Technologies 2012特別賞(Ecology)受賞】(来場者数:約2万名)
  6. 2012年6月6日〜 7日 NTTコミュニケーション科学基礎研究所オープンハウス2012 研究展示<デモ展示>「動くディスプレイで会話が伝わる~頭部運動の動的補強表現に基づく会話場再構成~」大塚和弘,熊野史朗,松田昌史,三上弾,大和淳司(来場者数:約1000名)
  7. 2011年6月9日〜 10日 NTTコミュニケーション科学基礎研究所オープンハウス2011 研究展示「微笑み合いからわかり合う気持ちを察知」熊野史朗,大塚和弘,三上弾,大和淳司
  8. 2010年5月27日〜 28日 NTTコミュニケーション科学基礎研究所オープンハウス2010 テーマ展示<デモ展示>「いつ誰が話したのか?を即座に分析-複数人会話のリアルタイムモニタリング&ブラウジング-」堀 貴明,大塚和弘,荒木章子,大庭隆伸,藤本雅清,吉岡拓也,小川厚徳,渡部晋冶,中谷智広,中村 篤,三上 弾,熊野史朗,大和淳司
  9. 2010年5月27日〜 28日 NTTコミュニケーション科学基礎研究所オープンハウス2010 テーマ展示「頑健な対象追跡のためのメモリーベースパーティクルフィルタ」三上 弾,大塚和弘,熊野史朗,大和淳司
  10. 2009年11月3日 ICMI-MLMI 2009 (ACM 2009 International Conference on Multimodal Interfaces and Workshop on Machine Learning for Multimodal Interfaces), MIT, Boston, Demo Session, “Realtime Meeting Analysis and 3D Meeting Viewer Based on Omnidirectional Multimodal Sensors,” Kazuhiro Otsuka, Shoko Araki, Dan Mikami, Kentaro Ishizuka, Masakiyo Fujimoto, Junji Yamato
  11. 2008年6月9日 CVPR2009 (IEEE Computer Society Conference on Computer Vision and Pattern Recognition 2009) Fontainebleau Resort, Miami Beach, Florida, Demo session, “Memory-based particle filter for head pose tracking robust under complex dynamics,”Dan Mikami, Kazuhiro Otsuka(現地展示説明を担当), Junji Yamato
  12. 2009年2月19日〜 20日 NTT R&Dフォーラム2009<デモ展示>「会話中にいつ誰が誰に向って話しているかを知る技術-マルチモーダル対話シーン解析」大塚和弘,荒木章子,三上弾,石塚健太郎,藤本雅清,大和淳司
  13. 2008年5月29日〜 30日 NTTコミュニケーション科学基礎研究所 オープンハウス×未来想論 2008 未来想論(パネルディスカッション)「コミュニケーションを理解する-分析手法,技術,未来へのビジョン」高梨克也,坊農真弓,大塚和弘,松田昌史,柏野牧夫,石塚健太郎
  14. 2008年5月29日〜 30日 NTTコミュニケーション科学基礎研究所 オープンハウス×未来想論 2008 テーマ展示「実世界コミュニケーションシーンを理解する音声映像技術-会話の流れを分析する音声技術と映像技術の調和-」大塚和弘,荒木章子
  15. 2008年2月7日〜 8日 NTT R&Dフォーラム2008「人を視て対話を識る」大塚和弘,大和淳司
  16. 2007年7月30日〜 31日 画像の理解・認識シンポジウム2007(MIRU2007),広島市立大学,デモセッションDS-01, <デモ展示> “Simultaneous Real-Time 3D Visual Tracking of Multiple Objects using a Stream Processor”Oscar Mateo Lozano,Kazuhiro Otsuka
  17. 2003年6月5日〜 6日 NTTコミュニケーション科学基礎研究所2003,「隠れていてもお見通し~物体追跡のための多視点オクルージョン解析」大塚和弘,武川直樹

Multimodal Communications and Informatics Lab. / マルチモーダル情報処理研究室(大塚研究室)