第三回 富山健氏 (千葉工業大学未来ロボティクス学科教授)
そのダイナミックな発言と行動を通じて、人々のハートに火を灯す「人」にフォーカスするインタビューシリーズの三回目。
今回ご登場いただくのは、感性ロボティクスの第一人者であり、ロボットがあたかも感情を持っているかのように感じる仕組み「擬似感性」の産みの親でもある千葉工業大学教授の富山健氏。
富山氏は16年に及ぶ米国でのシステムサイエンス(応用数学)の研究活動の後、現在、超高齢化が進む日本で「擬似感性」を使った福祉ロボット、特に介護者支援ロボットの開発に力を入れています。介護・福祉分野でのロボットの役割などを中心にお話を伺いました。
(千葉工業大学に於いて 聞き手 ?ロボットメディア 小林賢一)
今後は日本のロボットも単なるロボットではなく、日本ならではの感性が感じられるロボットが作られるようになるのではないでしょうか。
はじめからロボットを中心に研究をされていたのですか。
もともとの専門はシステムサイエンスです。モノをシステムとして捉え、そのシステムを我々が望むように動かすためにはどういうものがいいのかを数学の手法を使って解く応用数学の分野の学問で、例えば最適投資論、大気のモデリング、ミサイル探知機ソフトウェア、鶏の健康管理などいろいろやりました。
ロボットを作る際もロボットの目的、システムとして何をやらなければならないのか、そういうことをまず考えます。
現在、感性ロボティクスを研究されているわけですが、そのきっかけは何だったのでしょうか。
からくり人形が日本のロボットのルーツだとよく言われますが、日本のロボットの起源は実は平安時代にまでさかのぼると思っています。「式神 (しきがみ)」って知っていますか。陰陽師の安倍清明(あべのせいめい)は、紙を人型に切り取ってそれに息を吹きかけ、まるで人間のように操ったといいます、まさにあれはロボットですね。無生物に生命を吹き込んで生物にするということは感性の面からみてもすごくおもしろいと思いました。
日本においては感性とロボットというのは、本当に昔から一緒だったのですね。もちろん、そういうことを知って感性ロボティクスを始めたわけではありませんが、「ロボットに感性を」というところからはじめるといろいろなことが見えてくるようになりました。
経済産業省も今年、「感性価値」(生活者の感性に働きかけて共感・感動を得られる商品・サービス)に着目した、「感性価値創造イニシアティブ」を提唱していますね。
日本の感性は商品化にものすごい影響力を持っています。それは日本の商品の強みだし、ロボットに関してもそれはいえるのではないかと思います。今後は日本のロボットも単なるロボットではなく、日本ならではの感性が感じられるロボットが作られるようになるのではないでしょうか。
現在、日本で感性ロボティクスを研究されている研究者はどれくらいいるのですか。
日本ロボット学会の中で「感性」ということが注目されはじめたのは、だいたい5〜6年前からです。決してマイナーではありません。これまで工場の中にいたロボットが工場から出てわれわれの回りに存在するようになると、ただの物理的なインタラクションではだめで、そこに「感性」が求められるようになってきた。人間の隣にロボットを作りたいということであれば、今はどんなロボット研究者も「感性」ということを無視できません。一部の人が考えているというより、皆そのことはわかっています。ただし、そこを自分の分野だと定めてやっている人は、日本感性工学会の感性ロボティクス部会でも30名くらいではないでしょうか。
大切なことは、本当に我々は第二の人間を作りたいのかということです。第二の人間を作ると必ず競争原理が生じます。競争して第一の人間が負けちゃっていいんですかと。
先生が命名された「擬似感性」(Virtual KANSEI)という言葉を最初に聞いたとき、とてもうまい表現だなと思いました。
こういう研究ってなにかひとつバシッと決まるキーワード、フォーカスポイントがあるととてもいいんですね。Virtual KANSEIという言葉が出てきた時点でこの研究は決まったとも思いました(笑)。
結局感じるのは人間であってロボットではないわけですから、それをうまくあらわす言葉としての「擬似感性」。ロボットの仕草を人が見たときに、こいつは悲しんでいるのかなと感じられるフリができればいいと思っています。
機械が感じるのではなく、人間が感じるというところがポイントですね。ロボット自身がいろいろなことを感じて行動すると一般的には考える傾向がありますが、そうではないということですね。
大切なことは、本当に我々は第二の人間を作りたいのかということです。第二の人間を作ると必ず競争原理が生じます。競争して第一の人間が負けちゃっていいんですかと。それでは映画「ターミネーター」の世界です。第二の人間を作りたいのか否かということがロボット研究者にとって一番の倫理点じゃないかと思います。
今でもやっちゃいけないと言ったって、クローン人間を作ろうとする人間はいるわけで、「意思」を持つロボットを作ってはいけないと言っても、そういうものを作る研究者は必ず現れます。
「擬似感性」が軍事に転用される可能性はないのでしょうか。
アメリカに居たころに軍事関連の研究所で働いていたことがありますが、かれらは本気になってやりますよ。湯水のごとくお金を使って。筑波大学の山海先生が開発した「HAL」のようなハードウエアのミリタリーバーションもすでにできていると思います。怖い話です。
そういうこともあって学生たちには、「やっぱりガンダムではないでしょ、ガンダムは兵器だよ」といったブレインストーミングを行っています。それでどういうロボットが作りたいのか、どこまでのロボットを作りたいのか、学生たちに考えるよう指導しています。
そのとき私がよく使う言葉は、「知・情・意」ですね。
「知能」は現在研究が進んでいます。また「感情」の研究はまだはじまったばかり。そしてその先にある「意志」ということを今後どうするのか、それはロボット研究の究極のテーマですからね。ロボットが「自分で意思を持った」時点でそれは第二の人間になってしまう。つまりロボットが「意思」を持つことが第二の人間を作るかどうかの分かれ目だと思っています。私はロボットに「意思」は作り込みません。ロボットは「便利で賢い道具」であって、それ以上でもそれ以下でもない。それ以下だと使えないし、それ以上だと人間が居なくなる恐れがありますから。
しかし、将来ロボットが「意思」を持つ可能性はあるのではないでしょうか。
今でもやっちゃいけないと言ったって、クローン人間を作ろうとする人間はいるわけで、「意思」を持つロボットを作ってはいけないと言っても、そういうものを作る研究者は必ず現れます。でも私はそんな研究者にはなりたくありません。学生たちにも「意思」を持つロボットは作ってはいけないと教えています。
しかし、「生存のための意思」ということを考えるとこれは結構微妙な問題になります。というのはロボットが自分の電池が足りなくなってきたときに自動的に充電する機能というのは、一般的にはロボットが自分の機能を持続させるためのひとつの機能と考えますが、別の見方をすれば「生存の意思」を持っているともとれるわけです。だからロボットが「意思」を持っているか否かの境界というのは、それほどはっきりとはしていない。「情」と「意」の区別はなかなかつけにくいのです。
例えばロボットが怒った(情)場合、ロボットはどう行動(意)するのか。ロボットに「意思」がなければロボットがいくら怒っていようと関係ないわけですが、ロボットに「意思」があると、人間に直接危害(暴力)を与える可能性があるので、大変な脅威になります。
しかし、どこまでを良しとしてどこまでを良しとしないのかは1回くらい議論して済むということではありません。どっちか白黒つけておしまいにしがちだけど、事例をひとつひとつきっちり議論していかないといけない。ロボット技術者は常にそういうことを考えながらロボットを作っていく必要があると思いますね。
「擬似感性」のあるロボットはどんな点が難しいのでしょうか。
「表出感情」をどう作りこむかが一番の問題です。「表出感情」というのは、ロボットが何かを選んだときにそれをどう表現し、どういう行動や動作として表すのかということです。例えば、ロボットが人に水を与えるという行動は、水が入ったコップかペットボトルを相手に渡すということですが、ペットボトルをどう渡すのか、渡すという行為にどう変化をつけていくのか、それが「擬似感性」です。
人間の行動を表すキーワードをひとつ挙げるとするとそれは「バラエティ」になります。人間は実にいろいろな仕草、いろいろなやり方を通して自分がどうしてほしいかを表現し、相手に伝えています。だからロボットの表情や動作がいつも同じ反応で「バラエティ」に乏しいと、すぐに飽きられてしまいます。飽きられるロボットは使われません。飽きられず、どうやってバリエーションをつけるのか。
実際の動きに直結したパラメータのAMP(Action Modulation Parameter)を使って、「擬似感性」から作られてきた感情を使って動作を作り変えることができることは理論的にわかっているのですが、まだ外装までつけて完成した躯体がないので本格的には取り組めないでいます。ロボットの場合、シミュレーション上ではなんでもできるけど、実機でやってみるとまるっきり違う場合が多いので、早く実機で試してみたいと思っています。
機械というのは目的がきちっと定義されていて、それ用に特化されたものが美しいし、きちんとした仕事をする。
先生は青山学院時代から福祉介護に役立つロボットの研究をされてきたわけですが、介護者支援ロボット「HAJIME-CHAN」についてお聞かせいただけますか。
「HAJIME-CHAN」は介護者の実作業の代理、コミュニケーションと物理動作(水分補給など)ができるロボットとして、2003年度に設計・加工・組み立て・プログラムを行いました。その後、改良点を洗い出して、2005年度にハンドの追加と行動実験をしました。
ロボットというと、どうしてもあれもこれもということを思いがちですが、そういう「万能マシン」を作ると絶対にうまくいかない。機械というのは目的がきちっと定義されていて、それ用に特化されたものが美しいし、きちんとした仕事をする。万能マシンとしてのロボットというのは機械的に見ると機械の定義に反している場合が多いし、実はそういうものは機械ではないともいえるのです。
だから機能を絞らないといけない。介護者が居ないときに、その間を埋めるロボットというのが「HAJIME-CHAN」のコンセプト。なので、介護者が居ないときにロボットができないといけない機能をはじめにダァーと挙げました。やりたいことはあれもこれもとたくさんありましたが、拡げすぎると使い物にならないし、価格も自動車1台分よりは安いものでなければなりません。そう考えていくと基本的にできなくてはいけないことが絞られてきます。それは「水や薬の管理、ドアやカーテンの開け閉め、テレビをつけたり消したり、そして必要なときに介護士を呼ぶ」などといった日常のちょっとした物理的動作ができるロボットであり、また被介護者がどういうコンデションでいたかをきちんと記録し、介護士に伝える「申し送り」ができるロボットです。人間と人間との「申し送り」は不完全ですが、ロボットならデータを無線でパソコンに飛ばし、データを蓄積していくことができますし、ロボット同士の連携も簡単にできます。つまりロボットは「介護者支援システム」の端末のような働きをするわけです。
もちろん部屋の中にセンサーをいくつも埋めて被介護者の状況を把握するということもできますが、始終見張られているようでそんなの嫌だと思う人も居るでしょう。ロボットならあっち向いていろ(笑)といえばいいわけです。もちろんあっち向いていても部屋全部が見えるロボットもあるけど、、、要は主導権が誰にあるかということがポイントであって、ロボットはあくまでツール(道具)として活用するということですね。
お世話されることに気兼ねするお年寄りも多いわけですから、気軽に頼めるというのはロボットのいいところだと思います。
2007年に65歳以上の高齢者の人口比率が21%を超え、日本は超高齢社会に突入しました。いよいよ切実な問題になってきましたね。
本当に早くしないと間に合わない。五人に一人がお年寄りになってしまったわけですから。自分もそろそろその年齢に近づいているのであせってはいるんです(笑)。間に合わないんじゃないかと。ハードウェアで擬似感性を作ることは割合楽なのですが、保険会社がOKするような安全性を作りこむことが難しい。例えば目いっぱい動き続けたロボットが、動けなくなる前に自分で充電する、そういう技術もしっかり確立しなければなりません。
10年後には認知症患者が270万人を超えるとも言われています。例えば認知症の予防や改善に効果をあげている「回想法」をロボットができるようになるのでしょうか。
認知症患者の人生をしっかり聞いて受け止める「回想法」をロボットができるようになるといいと思いますが、まずは現場の方が何を望んでいるのかをもっと知る必要があります。
現場の人たちは「今抱えている問題をどうするか」ということで手一杯なので、介護者支援ロボットが出来てちょっとした仕事をしてくれるだけで、介護者に余裕ができ、被介護者とのコミュニケーションがもっとできるようになると思うんです。
後は専用機の開発ですね。例えばお風呂に入れてくれるロボットとか、排便を処理してくれるロボットとか。ロボットなら臭いを感じないからいいという方もいます。つまり人間じゃない部分、ツールとしての良さ。お世話されることに気兼ねするお年寄りも多いわけですから、気軽に頼めるというのはロボットのいいところだと思います。ロボットの良い面はどんどん強調すべきですね。
「擬似感性」を作ってそこに「適応力」を叩き込むというのではなく、「適応力」のあるロボットを使って、「擬似感性」を作っていく。
現在、ロボット開発は進められているのですか。
学科長の中野先生や米田先生などと協力して学科のロボット、そのキーワードは福祉分野のロボットですが、そのプロジェクトをはじめたいと思っています。幸いこの学科はハードウエアの専門家がたくさんいるので躯体は専門家にまかせて、私は擬似感性という形而上の問題に集中して、どういう機能を取り組めばいいかに専念する事ができるというおいしいところがあります。
その場合のロボットのカタチはどのようなものになるのでしょう。
「HAJIME-CHAN」を発展させたカタチになると思います。まったく人と同じようなヒューマノイドを作ろうとは思っていませんが、最低限、このロボットは感情を持っていると感じてもらえ、人が違和感を覚えないカタチである必要があります。
ちなみに「HAJIME-CHAN」が二足歩行ではないのは、安定性の問題であり、腕が長いのは床に落ちたモノを拾うためです。
もうひとつ根本的にロボットが持っていなければならない機能というのは「適応力」です。それは面倒をみている人にロボットが合わせていく能力のことです。介護現場などでロボットが役に立つためには「適応力」が絶対に必要です。それはロボットの値段にも関わります。それぞれの人に対してオーダーメイドで作っていたのではめちゃくちゃ高いロボットになってしまう。ですのでベースとなる標準タイプを作り、そのロボットに人にあわせる適応力を作りこんでいければ同じタイプのロボットを量産することができますので、価格も下がっていきます。
「適応力」というのは、学習していくということですね。
そうなのですが、学習という言葉を使いたくないのは、学習というレベルで済むかどうかまだわからないからです。いわゆる普通の学習的アルゴリズムの枠で留めたくないと思っています。
そうすると先生が目指しているは、「擬似感性を持ちながら、人に合わせていく能力を持ったロボット」ということになりますか?
「適応力」はロボットの鍵だと言ってもいいくらい重要です。「適応力」のあるロボットを作るのは非常に難しいのですが、それができなければ話にならないので、難しいなどとは言っていられません。
「擬似感性」を作ってそこに「適応力」を叩き込むというのではなく、「適応力」のあるロボットを使って、「擬似感性」を作っていく。「擬似感性」の仕組みそのものが人に合わせていける仕組み(適応力)になっていなければなりません。
感性も行動の中に現れるものであって、感性として別に存在するものではない。知能にも感性にも身体性というものが絶対に必要なんです。
それは人工知能とは違うものなのですか。
まったく違いますね。人工知能というのは三段論法が利く、ロジカルなものです。だけど「擬似感性」の場合はそうではない。例えば、悲しいときに楽しいことがあったとしてもいきなり全てが楽しくなるわけではありません。同じ刺激に対しても違うレスポンスがでてくる。一筋縄ではいきません。「感情表出」はロジックではないので三段論法が成り立たないのです。「擬似感性」というのはそういう「感情表出」ができる仕組みなのであって、人工知能とは違うわけです。
20世紀後半に一生懸命人工知能を作ろうとして出来なかった反省として、「知能というのは行動の中にある」という考えが出てきました。いくら知能があっても何もできなかったら、仕方がない。行動というものをどう起こすかというところに知能は現れる。そう考えると感性もそうじゃないのか。感性も結局は行動の中で読み取っている。感性も行動の中に現れるものであって、感性として別に存在するものではない。知能にも感性にも身体性というものが絶対に必要なんです。これは「擬似感性」の考え方とすごく合う。「擬似感性」というのは、我々がロボットの行動を見てどう感じるか、ですよね。つまり行動の中でしかありえないもの。そういう意味で知能と感性というものは、出所は違うかもしれないけど結果的には同じようなことになっていくのかなと思います。
「擬似感性」の研究分野に是非女性が進出してほしいですね。
まったくその通りです! この学科(未来ロボティクス)でも女子学生獲得大作戦をやろうとしています(笑)。
どうしてもロボットというと昔は鉄腕アトム、その後にガンダム、パトレイバー、マジンガーZと、皆兵器ですよね。そうではなくて「ドラえもん」のほうで行こうよ(笑)ということです。でもロボットは確かに難しいんです。やっぱりメカやプログラムがきちっと動かないといけない、その上での「感性」という話ですから。理論だなんだかんだ言っているとそこにたどり着くまでに疲れてしまう(笑)。この学科は教え方やカリキュラムが他の大学と違って「習うより、慣れろ」なんです。1年次から基板のハンダづけからはじめて、パーツは秋葉原ツアーで買って、まずは理論なしで自分のコンピュータを作らせてしまう。そして、君たちはそこまでしかできないけれど理論がわかっていればここまでできるよと教えています。これにより学生には理論に対する飢餓感が芽生えるのでちゃんと習うようになる。
やる気のある学生は1年生の時から学生プロジェクトを立ち上げています。今は「福祉ロボティクス」と「鬱セラピーロボット」のプロジェクトが動きはじめています。「感性」に関してもすごく興味をもつ学生が多いので、その分、学生とのコンタクトアワーが非常に長い(笑)というのがもっかのうれしい悩みです。
ロボティクスを学ぶ女子学生が増えることを期待しています。本日は楽しいお話、ありがとうございました。
8月1〜3日 日本感性工学会の大会が新宿の工学院大学であり、オーガナイズド・セッション「感性価値を創造するロボット: ZMP社miuroの事例を中心として」を主催すると共に、パネルディスカッション「今再び、感性を考える」のパネラーとして参加します。
9月13〜15日 日本ロボット学会が千葉工業大学を会場に行われますが、その副実行委員長を務めています。また、二つのオーガナイズド・セッション「ロボティクスにおける感性工学の役割」および「感性ロボティクス」を主催します。
10月10〜12日 The International Conference on Kansei Engineering and Emotion Research 2007 (KEER2007) が札幌で行われ、実行委員として参加すると共に、HMMを用いた擬似感性の構成法について発表する予定です。
1971年、東京工業大学工学部を卒業。同大学制御工学科助手を経て、カリフォルニア大学ロスアンゼルス校システムサイエンス学科にて博士課程を修了後、テキサス大学助教授、ペンシルベニア州立大学助教授などを務める。米国滞在中、アメリカ空軍、陸軍、AT&T社等から研究プロジェクト資金を提供される。1988年帰国。青山学院大学理工学部機械工学科教授を経て、2006年4月より千葉工業大学未来ロボティクス学科教授。日本感性工学会理事、等。
コメント
RSS feed for comments on this post.
この投稿には、まだコメントが付いていません
コメントの投稿
ごめんなさい、現在コメントを付けることは出来ません