クラウド型音声認識RTコンポーネントフレームワークの開発

クラウド型音声認識RTコンポーネントフレームワークの開発

投稿者: 
root

概要・特徴

  • クラウド型音声認識エンジン搭載のSDKをOpenRTM上で動作させ,ユーザーと音声対話を行う

仕様

  • 言語: C++
  • OS: Linux (Ubuntu16.04)
  • RTミドルウェア:OpenRTM-aist-1.1.2

ソースコードおよびマニュアル

ライセンス

注意

本コンポーネントはalexa様から提供されているライブラリを使用しています. ライセンスに関してはこちらの指示に従ってください.

問合先(メールアドレス): 
140447047@ccalumni.meijo-u.ac.jp
Project Information
OS: 
Linux
言語: 
C++
OpenRTM ver.: 
1.1
Average: 
3.5
Average: 3.5 (2 votes)
最終更新日時: 
火, 2017-12-12 21:19

コメント

投稿者: 

このコンポーネントで何ができて、どう使うでしょうか?マニュアルを読んでもどのような音声対話ができるのかがわかりません。他の型のようにビデオの例やあるシナリオでの動作例などを示していただけないでしょうか。

投稿者: 

マニュアルに書いてあるコマンドが途中で改行されているため読みづらいと思います。

あと、マニュアルからコマンドをコピーしようと思ったのですが、上手く文字列が選択できません。

投稿者: 

宮本様 貴重なコメントありがとうございます. マニュアルの更新を行い,見やすく改善いたしましたので確認をお願いいたします.その他,お気づきの点ございましたらコメントいただければ幸いです.

投稿者: 

マニュアルの更新ありがとうございます。結局このコンポーネントは、「AVSを起動する」という機能のみということでしょうか? AVS自体は、Alexaのインターフェースだと思いますが、このコンポーネントを使って他のRTCで構成されたシステムと連携させることはできないという理解でよいでしょうか? マニュアルを拝見すると、単にAVSのスイッチににしか見えないのですが。 もし、他のRTのシステムに対話の機能を付加したい場合には、ASK(Alexa Skills Kit)を使って別途システム開発が必要ということでしょうか?

投稿者: 

原様 貴重なコメントありがとうございます. おっしゃるとおり,このRTCはAmazon Tapのようにスイッチを押して対話を開始することができることと同じように,外部からの要求(スイッチ)を受けて音声認識・発話をするRTCとして開発しました. AVSdeviceSDK自体は音声データのみのやり取りを行うためのSDKであり,これ単体では対話での制御(音声でその他のデバイス制御など)を行うことができません.よって,対話での制御をASK(Alexa Skills Kit)で開発を行う必要があります. ただ,ASK自体の開発はAmazonのクラウドサービスを用いて開発を行うため,独自のシステム開発は行うことができますが,今回のRTCでは,ASKの部分までを含めたパッケージ化という所まで手が届かなかったという所で,申し訳ございません. 今後こちらのものの改良を踏まえながら,トータルなフレームワークとして,原様のメンテナンスされているOpenHRIと相互運用できないか検討できればと思います

ダウンロード

最新バージョン

初めての方へ

Windows msi(インストーラ) パッケージ (サンプルの実行ができます。)

C++,Python,Java,
Toolsを含む
1.2.0-RELEASE

RTコンポーネントを開発するためには開発環境のインストールが必要です。詳細はダウンロードページ

統計

Webサイト統計
ユーザ数:1761
プロジェクト統計
RTコンポーネント292
RTミドルウエア23
ツール20
文書・仕様書1

旧Webサイト

OpenRTM.org旧Webサイト

OpenHRP3

動力学シミュレータ

Choreonoid

モーションエディタ/シミュレータ

OpenHRI

対話制御コンポーネント群

OpenRTP

統合開発プラットフォーム

産総研RTC集

産総研が提供するRTC集

TORK

東京オープンソースロボティクス協会

DAQ-Middleware

ネットワーク分散環境でデータ収集用ソフトウェアを容易に構築するためのソフトウェア・フレームワーク

VirCA

遠隔空間同士を接続し、実験を行うことが可能な仮想空間プラットホーム