研究例(~2021)

ここでは,具体的な 研究例をいくつか紹介します.最初に各研究例の位置づけを説明しておきましょう.下図を見てください.図の中心に示されているように,人間から収集したデータを利用して2つのことを行います.1つ目はデータからの個人特徴の抽出です.データを提供してくれた人がどんな人であるかを理解します.2つ目は,その特徴を利用してその人に適した処理をします.その人が使いやすいように機器を自動的に操作したり,その人が必要としている情報を提供したりします.この2つのことは,様々なサービス分野で共通的に行われます.現在のところ,図に赤字で書いた,安心安全のための見守り,使い易いデータの可視化,思い出の振り返り支援,心理的な負担が少ない対話システム,音声によるエンターティメント,音による生活環境モニタリングなどに着目して研究を進めています.

スマートフォンには位置情報を計測するセンサが搭載されています.これをGPSと言います.ある人がスマートフォンを持ち歩いていると,その人が何時,何処にいたかを自動的に記録できます.生活圏抽出とは,これを用いて個人が主として利用する道やお店等を自動的に抽出する技術です.生活圏から外れたところに行ってしまった場合は,何か特別なことが生じた可能性があります.認知症の徘徊検知や児童の誘拐検知に活用できると考えています.
  • Yuji Matsuo, Sunao Hara, Masanobu Abe, “Algorithm to estimate a living area based on connectivity of places with home,” C. Stephanidis (Eds.), HCI International 2015 - Posters’ Extended Abstracts, Part II, CCIS 529, pp. 570–576, Springer International Publishing, Aug. 2015.
  • 松尾雄二,原直,阿部匡伸,“滞在地と経路に着目した生活圏抽出法,” 電子情報通信学会技術研究報告,Vol. 114, No. 500, LOIS2014-74,pp. 77–82,March 2014.
2018/02/04 16:08
自分は人と比べて行動範囲は狭いのか広いのか?最近,ちょっと籠り気味ではないのか?自分自身のことではありますが,意外と客観的には分からないものです.行動型推定とは,GPSで集めた位置情報を利用して,個人の行動パタンの多様性を測ったり,分類したりする技術です.メンタルヘルスチェックに活用できると考えています.

瀬藤諒,原直,阿部匡伸,“移動経路のパターン分類による人の行動分析,” 電子情報通信学会技術研究報告,Vol. 114, No. 500, LOIS2014-66,pp. 31–36,March 2014.

2018/02/04 16:08
楽しいことや珍しいことはFacebookやTwitterに投稿します.あとから振り返ることも可能です.しかし,投稿したことだけが振り返りたいことでしょうか?その時は意識していなくとも,後日懐かしむ出来事はあると考えられます.このような振り返りを実現すべく,日々収集した位置情報から特別な日を検索する方式を検討しています.スマートフォンを持っていれば位置情報は自動的に収集できますから,意識はしていなかった特別な日も検索できると考えています.

林啓吾,原直,阿部匡伸,“滞在地の特徴量を利用した「特別な日」検索方式,” 電子情報通信学会技術研究報告,Vol. 114, No. 500, LOIS2014-76,pp. 89–94,March 2014.

2018/02/04 16:08
Google Glassで代表されるように,個人の視野映像を常時記録できるようなデバイスが登場してきました.映像は振り返りには強力なメディアではありますが,プレイバックにはあまりに時間がかかります.そのため映像を要約することは必須でしょう.その第一歩として,映像から重要な部分をピックアップすることを検討しています.位置情報,脈拍,音など,他のセンサ情報を利用して,どのセンサがどのような情報のピックアップに有効かを検討しています.

大西杏菜,阿部匡伸,原直,“振り返り支援における効率的な映像要約のための自動収集ライフログ活用法,” 電子情報通信学会技術研究報告,Vol. 115, No. 27, LOIS2015-1,pp. 23–28,May 2015.

2018/02/04 16:08
人間の記憶は実に曖昧なものです.天候や時間などについて,一緒に行動したはずの友人と記憶が食い違うことが時々あります.また,時間が経つと忘れてしまうことも多くなります.写真やビデオは曖昧な記憶を補うことや忘却を軽減させることに役立っています.ライフログもその一助となると考えられます.さらに,自動的に収集されたライフログを利用すれば,そもそも本人が気づいていなかった事柄に後から気づかせることも可能だと考えられます.これを実現するため,多種多様なライフログを関連付けながら直観的に情報を取得できるライフログブラウジング方式を検討しています.
  • Atsuya Namba, Sunao Hara, Masanobu Abe, “LiBS: Lifelog browsing system to support sharing of memories,” Proceedings of UbiComp/ISWC 2016 Adjunct, pp.165–168, Heidelberg, Germany, Sept. 2016.
  • 難波敦也, 原直,阿部匡伸,“LiBS:発見と気付きを可能とするライフログブラウジング方式,” マルチメディア,分散,協調とモバイルシンポジウム(DICOMO2015), pp. 1741–1748, 8E-4, July 2015.
2018/02/04 16:08
「閑静な住宅街」の”閑静”とは,どのくらいの静けさなのでしょうか?「川のせせらぎ」の”せせらぎ”とは,どの川でも同じなのでしょうか?身の回りの音に関しては,案外無頓着です.環境に慣れてしまうと聞こえているはずの音も聞えなくなると言われています.そこで音の地図化を試みています.身の回りの音を客観視し,他の地域との比較を行うことが目的です.ユーザ参加型でスマートフォンやタブレットを利用して,みんなで音の地図をつくることを目指しています.

原直,阿部匡伸,曽根原登,“聴取者の主観評価に基づく音地図作成のための環境音収録,” 2015年日本音響学会春季研究発表会, pp.81–82, 2-1-15, March 2015.

2018/02/04 16:08
Googleの音声検索を使ったことありますか?探したい単語をスマートフォンにしゃべって入力する手段です.「こうらくえん」と喋るだけで「後楽園」と入力できます.これは音声認識という技術です.声を文字に変換します.うるさい場所でもなかなかよく動くので便利です.では,アップル社のSiriを使ったことがありますか?「後楽園について教えて」のように人に話しかけるようにしゃべることができるので,音声検索より賢そうです.しかし,唐突に「ご用件は何ですか?」と聞かれることが多々あり,しばしば閉口します.なんで今聞いてくる?とか,話の流れから用件は決まっているでしょ!とか言いたくなります.これは,音声対話という技術が必要なことを意味しています.人間は声を文字に変換した後に,かなり高度な知識処理をしています.我々はカーナビゲーションを題材としてこの問題に取り組んでいます.
  • 山岡将綺,原直,阿部匡伸,“車載用音声対話システムにおけるユーザ負荷を考慮した対話戦略の検討,” 情報処理学会技術報告, vol. 2014-SLP-101, (vol. 2014-NL-216), no. 7, pp. 1–6, May 2014.
  • Masaki Yamaoka, Sunao Hara, Masanobu Abe, “A Spoken Dialog System with Redundant Response to Prevent User Misunderstanding,” APSIPA Annual Summit and Conference 2015, pp. 223–226, Hong Kong, Dec. 2015.
アップル社のSiri,NTTドコモのiコンシェルなどのバーチャルエージェントや,ソフトバンクのPepper などの人間型ロボットでは,ユーザと音声でコミュニケーションをとります.アシスタントのように様々な情報を伝えてくれるのでとても便利です.しかし,そのしゃべり方はどうでしょう?無味乾燥な印象ではないでしょうか?コンピュータにしゃべらせる技術を音声合成と言います.現状では,ニュース文などを音声に変換して,情報を得るには十分な品質を達成できています.しかし,状況にあったしゃべり方や,感情移入したしゃべり方は実現できていません.音声の優れた点が欠落していると言えるでしょう.我々は,より人間に近い多様なしゃべりの実現を目指して研究しています.
  • Tadashi Inai, Sunao Hara, Masanobu Abe, Yusuke Ijima, Noboru Miyazaki and Hideyuki Mizuno, “A Sub-Band Text-to-Speech by Combining Sample-Based Spectrum with Statistically Generated Spectrum,” Interspeech 2015, pp. 264–268, Dresden, Germany, Sept. 2015.
  • 稻井禎,原直,阿部匡伸,井島勇祐,宮崎昇,水野秀之,“高域部への素片スペクトルとHMM生成スペクトルの導入によるHMM合成音声の品質改善の検討,” 2015年日本音響学会春季研究発表会, pp.383–384, 2-Q-36, March 2015
2018/02/04 16:08
初音ミクは知っていますか?バーチャルな歌手としてインターネット上で評判です.彼女の歌声は人工的に創られた歌声で,裏で人間が歌っているわけではありません.個人が作った曲を簡単に歌わすことができます.また,どことなくロボット的な声質が人気の秘密なのかも知れません.一方,歌唱力はまだまだ稚拙で,オペラ,ロック,ポップス,演歌,民謡などを歌わせることは困難です.そこで,我々は多様な歌唱力を実現したいと考えています.現在は,ポップス調の歌声の合成を検討しています.

家村朋典,原直,阿部匡伸,“ミックスボイスの地声・裏声との類似度比較,” 2015年日本音響学会春季研究発表会, pp.427–428, 2-Q-51, March 2015

2018/02/04 16:08

コンピュータがしゃべる。どうやって?

2014.07.12 @東京ビックサイト 夢ナビライブ

  • 最終更新: 2021/09/07 10:48