ロボットアバタを用いた親和性向上に関する研究

背景

IRIS(イリスと読む:日常生活支援ロボット)は親和性にも配慮しました.しかし,IRISの問題点として,

  1. 何を行っているか,または何を行おうとしているかが直観的にわかりにくい
  2. 物理的な機能の制限により,ジェスチャやアイコンタクトなどコミュニケーションに必要な非言語情報を扱いにくい
  3. 機械が剥き出しの外観であるために,親しみを感じにくい

などが生じました.


これらの問題点を総合的に解決するために従来法を用いての解決は困難でした. そこで,ロボットアバタという新たな概念を提案し,総合的にこれらの問題を解決しようとしています.

ロボットアバタ

ロボットアバタ概念図高いレベルで人間の身の回り で安全に作業を行うこととコミュニケーション機能の両立は,現状では非常に困難です.これは,IRISを開発した経緯で痛感させられました.

そこで,私は考え方を変えました.そして,作業を担当する大きいロボットと,コミュニケーションを担当する小ロボットの2つを組み合わせてロボット全体の親和性の向上(ここがポイント)を狙うことを思いつきました.この小ロボットを私はロボットアバタと名づけています.ロボットのためのロボットのアバタです.

ロボットアバタにより実現できる機能

ロボットアバタの実装により実現できる機能には以下の項目があります.

  1. 状態の提示
  2. 動作予告
  3. 指差し行為
  4. 対話可能な状態の多様化

うなずき ロボットは人工物です.よって,ユーザが直観的にロボットの状態を把握するのは,困難です.IRISは,ユーザの呼びかけ方向を認識し,そのユーザの元へ向かい,対話を 開始します.まずは,この状態をユーザにわかりやすく理解させるために,ロボットアバタ(IRISに実装したロボットアバタをCHIRISと呼ぶ)にその 状態に応じた動作をさせました.

次に,ユーザとの対話の状態について注目し,実験を行った結果明らかになったことは,

ということでした.

動作予告 ロボットの現在の状態を知らせることだけではなく,ロボットの次の状態をユーザに示す,「ロボットアバタを 用いた動作予告」を私は提案しています.これは,「移動ロボット接近時における 恐怖感低減に関する研究」にも繋がる研究です.ロボットアバタの動作により,ロボットの次の状態を提示する手法です.

ロボットに作業を行わせる場合にロボットの後方にあるものを取ってくれと指示する状態があります. 通常はロボットが後ろを向き,その対象物でよいか確認することになります.これをロボットアバタに行わせれば, 時間の短縮,エネルギー効率がよい,また安全性も維持されます(皮肉にもロボットは動かさない方がいいわけです.)

対話可能な状態の多様化  ロボットであれば,人間にできない(困難な)ことをしてもらいたいと思うのが世の常です.人間が作業をしている際に,話かけられると混乱しますが,ロボッ トであれば可能です(システムの問題).ただし,ヒューマノイド型ロボットの場合は,人間と同様に「何?」と後ろを振り向いて対処するのが,自然な動作 かと思います.ロボットアバタの場合は,ロボットアバタだけが,対応すればよいので,対話可能な状態が多様化します.しかし実際には,ロボットの作業中は 人間を近づけない方が安全性の観点から無難です.よって,近づいてきた人間に,注意喚起をする使用法になると思います.

ロボットアバタの詳細や動画については, 逐次更新する予定です.ご了承ください.

IRISに実装したロボットアバタCHIRISの写真

左肩に載っているのがロボットアバタ IRISの進む方向を指し示す

Goyane(左)とASAHI2011(右),
ASAHI2012(左), ASAHI2013(右)に実装したロボットアバタの写真

    日常生活支援移動ロボットGoyane   日常生活支援ロボットASAHI 
    日常生活支援ロボットASAHI2012   a 

関連文献,発表など(国内学会は2009年以降のみ掲載)

[著書]

[原著論文]

  1. Yutaka Hiroi, and Akinori Ito, "Influence of the Height of a Robot on Comfortableness of Verbal Interaction," IAENG International Journal of Computer Science, vol. 43, no.4, pp447-455, 2016.
  2. 廣井富, 伊藤彰則, 
      指差しによる人間への位置提示精度調査とその精度向上手法, 情報処理学会論文誌, Vol. 56, No. 8, pp.1634-1645, 2015.
  1. 鈴木直人, 廣井富, 千葉祐弥, 能勢隆, 伊藤彰則, 
      応答タイミングを考慮した英会話練習のための音声対話型英語学習システム, 情報処理学会論文誌, Vol. 56, No. 11, pp.2177-2189, 2015.
  1. 廣井富, 伊藤彰則, 
    拡張現実感を用いたロボットデザインの評価,
    日本バーチャルリアリティ学会論文誌, Vol. 18, No. 2, pp.161-170,2013.
  1. Yutaka Hiroi, Akinori Ito and Eiji Nakano,
    EVALUATION OF ROBOT-AVATAR-BASED USER-FAMILIARITY IMPROVEMENT FOR ELDERLY PEOPLE, KANSEI Engineering International,  vol. 8, no.1, pp.59-66, 2009.
  2. 廣井富, 伊藤彰則, 中野栄二,
    人間共存型ロボットのためのロボットアバタを用いた親しみ感の向上,
    感性工学研究論文集第7巻4号(感性ロボティクス特集),pp.797-805,2008.

[国際会議]

  1. Yuma Fujiwara, Yutaka Hiroi, Yuki Tanaka and Akinori Ito, “Development of a Mobile Robot Moving on a Handrail ―Control for Preceding a Person Keeping a Distance―”, Proc. of the 24th IEEE International Symposium on Robot and Human Interactive Communication, RO-MAN 2015, pp. 413-418, 2015.
  2. Keisuke Sakai, Yutaka Hiroi, and Akinori Ito, “Teaching a Robot where Objects are: Specification of object location using human following and human orientation estimation”, Proc. of 14th International Symposium on Robotics and Applications, World Automation Congress 2014, 6 pages, 2014.
  3. Naoto Suzuki,Takashi Nose, Yutaka Hiroi, Akinori Ito, "Controlling Switching Pause Using an AR Agent for Interactive CALL System”, HCI International 2014-Posters'Extended Abstracts Communications in Computer and Information Science, Vol. 435, pp. 588-593, 2014.
  4. Yutaka Hiroi and Akinori Ito, “ASAHI: OK for Failure -A Robot for Supporting Daily Life, Equipped with a Robot Avatar-”, Proc. of 8th ACM/IEEE International Conference on Human-Robot Interaction, pp.141-142, 2013.
  5. Yutaka Hiroi, Takayuki NAKAYAMA, Hisanori KURODA, Shinji MIYAKE and Akinori Ito,“Effect of Robot Height on Comfortableness of Spoken Dialog”, Proc. of 5th International Conference on Human System Interaction, 6 pages, 2012.
  6. Yutaka Hiroi and Akinori Ito, "Toward Human-Robot Interaction Design through Human-Human Interaction Experiment", D. Yang (Ed.), Informatics in Control, Automation and Robotics, Volume 2, LNEE 133, pp. 127-130, 2011.
  7. Yutaka Hiroi, Shuhei Hisano and Akinori Ito, “EVALUATION OF HEAD SIZE OF AN INTERACTIVE ROBOT USING AN AUGMENTED REALITY”, Proc. of 13th International Symposium on Robotics and Applications, World Automation Congress 2010, (CDROM), 2010.
  8. Yutaka Hiroi, Eiji Nakano, Takayuki Takahashi, Akinori Ito, Koji Kotani and Nobuo Takatsu,"A New Design Concept of Robotic Interface for the Improvement of User Familiarity", Proc. SPIE, vol.6042, no.604230, pp.1-4 , 2005.

[国内学会(2009年以降)]

  1. 中森裕子, 廣井富, 伊藤彰則, LRF を用いた「だるまさんが転んだ」における「幅判定手法」の効果, ロボティクス・メカトロニクス講演会2017 講演論文集 DVD-ROM, 1P2-L06, 2017.
  2. 中森裕子, 廣井富, LRFを用いた「だるまさんが転んだ」における人追従安定化に関する基礎的検討, 日本機械学会関西学生会学生員卒業研究発表講演会,16- p.21, 2017.
  3. 廣井富, 中森裕子, 森下康平, 伊藤彰則, 子どもと外遊びを行うテレプレゼンスロボットの提案, 第17回システムインテグレーション部門講演会(SI2016)講演論文集, pp. 1578-1579, 2016.
  4. 田中佑季,廣井富,伊藤彰則,複数台の道案内ロボットのための人位置情報の引き継ぎ手法の提案,第34回日本ロボット学会学術講演論文集DVD, 3G1-07, 2016.
  5. 津田剛志,廣井富,伊藤彰則,RGB-Dセンサを用いた指差し認識に関する研究-位置誤差に関する一考察-,第34回日本ロボット学会学術講演論文集DVD, 3G1-05, 2016.
  6. 田中佑季,廣井富,伊藤彰則,複数台の手すりを移動する道案内ロボットによる人位置情報の引き継ぎ手法の実装,第18回日本感性工学会大会予稿集, F22, 2016.
  7. 廣井富, 前田彰大, 田中佑季, 伊藤彰則, 拡張現実感を用いた恐怖感低減手法に関する検討, ロボティクス・メカトロニクス講演会2016 講演論文集 DVD-ROM, 2P1-11b1, 2016.
  8. 廣井富, 前田彰大, 田中佑季, 松丸隆文, 伊藤彰則, 移動ロボット接近時における動作予告を用いた恐怖感低減に関する検討, ロボティクス・メカトロニクス講演会2016 講演論文集 DVD-ROM, 2P1-11b2, 2016.
  9. 廣井富, 森奨平, 藤原祐磨, 伊藤彰則, 拡張現実感を用いた生活支援ロボットの恐怖感低減手法の評価-ロボットサイズに関する実験-, ロボティクス・メカトロニクス講演会2015 講演論文集 DVD-ROM, 2A2-H03, 2015.
  10. 廣井富, 森奨平, 藤原祐磨, 伊藤彰則, 拡張現実感を用いた生活支援ロボットの恐怖感低減手法の評価-ロボットの色に関する実験-, ロボティクス・メカトロニクス講演会2015 講演論文集 DVD-ROM, 2A2-H04, 2015年.
  11. 廣井富, 坂井奎亮, 立田裕記, 伊藤彰則, ロボットとの「だるまさんがころんだ」の提案, ロボティクス・メカトロニクス講演会2015 講演論文集 DVD-ROM, 2A2-H05, 2015.
  12. 田中佑季, 廣井富, 藤原祐磨, 伊藤彰則, 人の少し前を移動するコミュニケーションロボットの評価-手すり上を移動するコミュニケーションロボットの開発-, ロボティクス・メカトロニクス講演会2015 講演論文集 DVD-ROM, 2A2-H06, 2015年.
  13. 田中佑季, 廣井富, 人の少し前を移動するコミュニケーションロボットの提案,日本機械学会関西学生会学生員卒業研究発表講演会, no. 17, p. 10, 2015. (Best Presentation Awards)
  14. 鈴木直人,廣井富,藤原祐磨,千葉祐弥,能勢隆,伊藤彰則,英会話学習システムの複数回使用時における学習者の交替潜時の変化に関する検討,日本音響学会春季講演論文集,pp. 189-190,2015.
  15. 鈴木直人,廣井富,藤原祐磨,千葉祐弥,能勢隆,伊藤彰則,英会話学習システムにおける応答タイミング練習方法の有効性の検証,情報処理学会研究報告,vol. 2014-SLP-105,no. 13,6 pages,2015.
  16. 坂井奎亮, 廣井富, 二上啓大, 藤原祐磨, 伊藤彰則,人追従と移動軌跡の記憶が可能な台車「Carry PM2」の開発, 第15回計測自動制御学会システムインテグレーション部門講演会(SI2014)講演論文集,pp. 2158-2159,2014.
  17. 藤原祐磨, 廣井富,  鈴木直人, 伊藤彰則, 手すり上を移動するコミュニケーションロボットの開発―伸びる手を用いた道案内の評価―, 第32回日本ロボット学会学術講演論文集DVD, 3P2-04, 2014.
  18. 坂井奎亮, 廣井富, 伊藤彰則 , LRFによる人追従を考慮した障害物回避手法の提案,第32回日本ロボット学会学術講演論文集DVD, 2D2-06, 2014.
  19. 鈴木直人,廣井富,藤原祐磨,千葉祐弥,能勢隆,伊藤彰則,英会話学習システムにおけるCGキャラクタの効果と学習者の発話タイミング制御のための付加表現に関する検討,日本音響学会秋季講演論文集,pp. 53-54,2014.
  20. 廣井富, 坂井奎亮, 二上啓大, 藤原祐磨, 伊藤彰則, 日常生活支援移動ロボットASAHI2013の開発, ロボティクス・メカトロニクス講演会 2014 講演論文集DVD-ROM,2A1-F05,2014年.
  21. 藤原祐磨, 廣井富, 川崎成人, 黒田尚孝, 鈴木直人, 伊藤彰則, 手すり上を移動するコミュニケーションロボットの開発―伸びる手を用いた道案内の提案―, ロボティクス・メカトロニクス講演会 2014 講演論文集DVD-ROM,2A1-F06,2014年.
  22. 二上啓大, 廣井富, 黒田尚孝, 鈴木直人, 伊藤彰則, 指差しと音声対話併用による床面上の物体回収手法の提案, ロボティクス・メカトロニクス講演会 2014 講演論文集DVD-ROM,2A1-F07,2014年.
  23. 坂井 奎亮, 廣井富, 伊藤彰則, LRFを用いた人追従時の移動軌跡の記録と軌道追従に関する基礎的検討, ロボティクス・メカトロニクス講演会 2014 講演論文集DVD-ROM,2A1-F08,2014.
  24. 坂井奎亮, 廣井富, LRFを用いた人追従と移動軌跡の記録の両立に関する基礎的検討, 日本機械学会関西学生会学生員卒業研究発表講演会,no.17, p.15, 2014年3月17日
  25. 鈴木直人,廣井富, 藤原祐磨, 黒田尚孝, 戸塚典子, 千葉祐弥, 伊藤彰則, AR キャラクタとの英会話練習時における交替潜時のタイムプレッシャーによる制御, 情報処理学会研究報告, vol. 2013-SLP-99, no. 9, 6 pages, 2013年.
  26. 鈴木直人,廣井富, 藤原祐磨, 黒田尚孝, 戸塚典子, 千葉祐弥, 伊藤彰則, AR キャラクタを用いた音声対話による英会話学習システムの検討-タイムプレッシャー導入の効果-, 第18回日本バーチャルリアリティ学会大会論文集, pp.258-261, 2013年.
  27. 廣井富, 黒田尚孝, 藤原祐磨, 戸塚典子, 伊藤彰則, 手すりを移動するコミュニケーションロボット―道案内方法の比較―, 第31回日本ロボット学会学術講演論文集DVD, 1G3-02, 2013年.
  28. 黒田尚孝, 廣井富, 伊藤彰則,ロボットアバタを用いた指差し行為の移動ロボットへの実装―人間による指差し認識の調査―,第31回日本ロボット学会学術講演論文集DVD, 1I1-01, 2013年.
  29. 黒田尚孝, 廣井富, 三宅真司, 伊藤彰則,ロボットアバタを用いた指差し行為の移動ロボットへの実装,第30回日本ロボット学会学術講演論文集DVD, 1H2-3, 2012年.
  30. 廣井富, 内田裕二, 西村駿宏. 中山貴之, 黒田尚孝, 三宅真司, 戸塚典子, 伊藤彰則, 手すりを移動するコミュニケーションロボット―全体コンセプト―, ヒューマンインタフェースシンポジウム2012論文集, 1223S, pp. 101-102, 2012.
  31. 黒田尚孝, 廣井富, 三宅真司, 伊藤彰則, ロボットアバタを用いた指差し行為の実現-ロボットアバタへの実装-, 第14回感性工学会大会予稿集CD-ROM,A4-7,2012.
  32. 中山貴之, 廣井富, 黒田尚孝, 三宅真司, 伊藤彰則, ロボットの動作によって人間の発話開始時間を制御できるか?, 情報処理学会研究報告, vol. 2012-SLP-92, no. 5, 6 pages, 2012. 
  33. 廣井富, 黒田尚孝, 内藤圭祐, 田晶太, 松井一馬, 井上駿, 林和孝, 中山貴之, 松中翔平, 伊藤彰則, 日常生活支援移動ロボットASAHI の開発-全体構想とハードウェア構成-, ロボティクス・メカトロニクス講演会 2012 講演論文集DVD-ROM,2A1-P03,2012.
  34. 黒田尚孝, 廣井富, 松井一馬, 三宅真司, 伊藤彰則, ロボットアバタを用いた指差し行為の実現-基本コンセプトと予備実験-, ロボティクス・メカトロニクス講演会 2012 講演論文集DVD-ROM,2A1-P04,2012.
  35. 黒田尚孝,廣井富,ロボットアバタを用いた指差し行為に関する基礎的検討,日本機械学会関西学生会学生員卒業研究発表講演会,no. 20, p. 18,2012.
  36. 内藤圭祐,廣井富,レーザレンジファインダを用いた人追跡の基礎的検討,日本機械学会関西学生会学生員卒業研究発表講演会,no. 20, p. 17,2012.
  37. 中山貴之,廣井富,黒田尚孝,三宅真司,伊藤彰則,ロボットの高さが対話のしやすさに及ぼす影響に関する予備的検討,第12回計測自動制御学会システムインテグレーション部門講演会(SI2011)講演論文集DVD,pp.193-194,2011.
  38. 中山貴之, 廣井富, 伊藤彰則,移動ロボット減速時におけるロボットアバタを用いた動作予告法の実装と評価,第29回日本ロボット学会学術講演論文集DVD, 3G2-5, 2011.
  39. 廣井富, 伊藤彰則, ロボットアバタを用いた日常生活支援ロボットの親しみ感の向上-非ヒューマノイドロボット型ロボットへの適用-, ロボティクス・メカトロニクス講演会 2011 講演論文集CDROM,2P2-Q07,2011.
  40. 廣井富, 篠原達也,兼次一喜,岩本昂,中山貴之, 伊藤彰則, 日常生活支援移動ロボットGoyaneの開発 –高さ変更可能な機構の提案-, ロボティクス・メカトロニクス講演会 2011 講演論文集CDROM,2P2-Q08,2011.
  41. 中山貴之, 廣井富, 移動ロボット減速時におけるロボットアバタを用いた動作予告法の検討,日本機械学会関西学生会学生員卒業研究発表講演会,no. 18, p. 17,2011.
  42. 廣井富,伊藤彰則, ロボットの主観評価における身体と拡張現実感, 信学技報, vol. 110, no. 459, HCS2010-62, pp. 27-28,2011.
  43. 去来川勇樹,廣井富,榊洋祐,二神龍平,中山貴之,伊藤彰則, 拡張現実感を用いた日常生活支援移動ロボットへの位置の指示方法の提案, 第31回バイオメカニズム学会学術講演会予稿集,pp. 159-160,2010.
  44. 廣井富, 後藤基允, 山本祐三, 山根佑介, 稲田遥一, 大原達哉, 木村昭太, 久野修平, 伊藤彰則, 日常生活支援移動ロボットGoyaneの開発, ロボティクス・メカトロニクス講演会 2010 講演論文集CDROM,2A2-A21,2010.
  45. 廣井富, 大原達哉, 木村昭太, 久野修平, 伊藤彰則, 日常生活支援移動ロボットのためのロボットアバタを用いた動作予告の比較, ロボティクス・メカトロニクス講演会 2010 講演論文集CDROM,2A2-A22,2010.
  46. 廣井富, 伊藤彰則,生活支援ロボットの実用化を目指して, 信学技報, vol. 109, no. 457, HCS2009-70, pp. 21-22,2010.
  47. 久野修平, 廣井富, 拡張現実感を用いたロボットアバタの頭部形状の検討,日本機械学会関西学生会学生員卒業研究発表講演会,no. 20, p. 14,2010.
  48. 廣井富,後藤基允,山本祐三,大原達哉,木村昭太,伊藤彰則,
    日常生活支援型移動ロボットのためのロボットアバタを用いた動作予告の実装,日本ロボット学会第27回学術講演会予稿集CDROM, 3C3-08,2009.

[招待講演]

  1. 日本バーチャルリアリティ学会 テレイグジスタンス研究委員会,第1回テレイグジスタンス研究会「ロボットアバタと日常生活支援ロボット」,慶応義塾大学,(2012年12月14日)
  2. 日本感性工学会 感性工房部会,感性ロボティクスワークショップ(第2回)「感性ロボティクス ロボット研究者の感性は?」,中央大学,(2007年2月26日)

[最終成果報告会]

  1. 東北大学21世紀COEプログラム「言語・認知総合科学戦略研究教育拠点」,ロボットアバタを用いたユーザ親和性向上に関する研究,(2007年2月28日)

[科研費]

  1. 基盤研究(C),「子供との動的インタラクションが可能なロボットの実現」(2016年4月1日〜2019年3月31日)
  2. 若手研究(B),「ロボットアバタを用いた生活支援ロボットの親和性向上に関する研究」(2014年4月1日〜2016年3月31日)
  3. 挑戦的萌芽研究,「エージェントとの対話に基づく英語学習システムの開発」(2012年4月1日〜2015年3月31日)

Topページへ