RT-Component

RT-Component

投稿者: 
isao-hara
対話型システムのためのRTコンポーネント群

概要

対話型のシステム構築を容易にするために作成したRTコンポーネント群です。ここで公開するRTコンポーネントは、既に、公開されているOpenHRIとともに公開する予定です。

対話型システムのためのRTコンポーネント群として以下のコンポーネントを開発しています。

投稿者: 
新井 孝
PSDを用いた相対位置検出モジュール

ロボットアーム先端に取り付け、対象物の検出を 行うためにマルチPSD距離センサを用いた簡易計測 モジュール制作し、それを制御するRTCの開発を行いました。 また、ご指摘いただいた内容をRTCに反映した他、 インターフェース部分のRTCを分離し、使用するインターフェースに合わせて交換できるようにしました。

概要

PSD(Position Sensing Device)距離センサを用いた500mlペットボトル形状対象物との 相対位置を検出する計測システムとして相対位置検出モジュール及び、それを制御するコンポーネントをRTMで開発した。

投稿者: 
sasakikazuma
RTCGateway

RTCGatewayはCycling’74社のMax(MAX/MSP)とOpenRTM-aistとの間でデータ交換を行うことができるプラグインです。MaxのExternalオブジェクトとして実装されており、Max側ではRTCオブジェクトとして、RTM側ではRTコンポーネントMAX_MSP_RTCとして扱われます。 Max(MAX/MSP)はシンセサイザーのコントロールのためのビジュアルプログラム環境として開発されましたが、現在はリアルタイム音響処理、映像処理・生成、MIDI・様々なデバイスのコントロールに対応しています。オブジェクトと呼ばれる特定の機能を持った部品同士を線でつなぐ(Patch)ことでプログラミングができるようになっており、音楽表現、舞台演出、メディアアートなどのインタラクティブなシステム開発にとって強力なツールとなっています。 RTCGatewayを導入することでMaxで主にロボット用に開発されたRTコンポーネントを比較的簡単に利用することができます。例えばロボットを用いたメディアアート作品の制作の際、音や映像といったインタフェースとロボット制御との間でのデータ交換を行うことも可能です。

投稿者: 
namatame
自動アングル機能を有したロボットカメラ

ロボットによる全自動写真撮影サービスを提供する。 汎用的なハードウェアを利用している為再利用が容易で 個々の機能も別のサービスとして活躍が期待できる。

概要

  • ロボットによる自動写真撮影サービスが行えるRTC(群)
  • 本機能を実装したロボットに「写真撮って」と声をかけるとサービス開始
  • 周囲の人の位置と身長を推定
  • 人に対して設定した相対距離になるように自律移動し旋回でアングル調整
  • カメラの映像を画像ファイルとして保存
  • プリンターをRTC化することで撮影した画像をその場で人数分印刷

特徴

  • 利用者が各自所有するハードウェアで再現が容易
  • 個々のRTCが様々な別用途でも再利用の期待大
  • プリンターもRTC化しており応用の幅が広がる

仕様

  • 言語: C++
  • OS:Windows 7

このページで公開しているRTC

  • ShutterChance-----------:カメラの映像をシャッター音と共に画像ファイルとして保存
  • HumanDetect------------:カメラと測域センサを利用して周囲の人の位置と身長を推定
  • Print_Out----------------:PCに接続されたプリンターに印刷ジョブを送信
  • CameraMan--------------:写真撮影サービスとして各機能を制御するコントローラ

ソース&実行ファイル/マニュアル/紹介動画

  • ソースコードとマニュアルは右に示すホームページ-->ここ<-- からダウンロード可能です。
  • 紹介動画は -->ここ<-- で見ることができます。

更新履歴

  • 2013/11/23 ・・・ 本ページにて関連情報を新規アップロード
  • 2013/11/25 ・・・ 文字コードを「ANSI」から「UTF08」に変更するRTCを公開      
  • 2013/11/26 ・・・ VC2010、2008、両バージョンRTMに対応した実行ファイルを公開      
  • 2013/11/28 ・・・ 本RTCの使い方の詳細を説明したマニュアルを公開
  • 2013/12/03 ・・・ 紹介動画の内容を少し修正
  • 2014/01/05 ・・・ SI2013でのプレゼン資料をアップロード

投稿者: 
shimotomai

特に近年WEBのサービスとして音声認識や画像検索をはじめとした技術の利用が可能となってきています。 これによりWEB上の膨大な知識を利用することが可能となります。googleで提供するサービスのうち、音声認識や音声合成、そのほかの検索サイトによる検索サービスを利用するRTC群を開発しました。

robovie_h.jpg
投稿者: 
s08tm049
RTミドルウエアの産業応用を目的としたエンジニアリングサンプル

発表

  • 2013国際ロボット展NEDOブース展示作品「RTミドルウエアを用いたエンジニアリングサンプル」
  • SI2013&RTミドルウエアコンテスト2013応募作品「RTミドルウエアの産業応用を目的としたエンジニアリングサンプルの開発」

概要

  • RTミドルウエアの産業応用の可能性を評価するために,産業用ロボットで必要とされる基本的な動作を簡単に再現できるサンプル
  • カメラ機能とティーチング機能を利用し,産業用ロボットがベルトコンベア上を流れるワークに対しピック&プレースを行うシステム
  • RTミドルウエアの再利用性を活用したラピッドプロトタイピングのためのテンプレートとして利用可能
投稿者: 
yusuke hayashi
Kartoライブラリを用いた自律地図生成システム

本ページはRTミドルウェアコンテスト2013で発表予定のRTCページです。
レーザーレンジファインダを搭載した移動ロボット(Roomba)を用いて、自律的に地図を作るシステムを提供します。
このRTC群は、Kartoライブラリを用いたSLAMや経路計画、自己位置推定などの環境地図RTCと、北陽電気のレーザーレンジファインダ、iRobot社のRoombaを制御するRTCが含まれています。

地図システムのコンポーネント群全体について、再利用性を高めるため、データポートを使用し、標準の構造体を使用して設計・構成しています。
そのため、標準のデータ型を使用すれば、一部RTCを置き換える事も可能です。

仕様

    使用言語:C++, python, C#(OpenRTM.NET1.3)
    使用環境:Windows

必要ライブラリ

    numpy
    opencv (cv2.pyd)
    PyRTSeam (SEC co.)
投稿者: 
みよし

このプロジェクトは大きく分けてロボット台車とロボットアームの制御の2つから構成されています. ~ロボット台車~  台車にはKobukiを使用します.Kobukiへの移動指令は,音声による入力とゲームパッドによる入力の2種類が用意されています.音声入力では,入力デバイスとしてAndroid端末を使用します.Android on RTMの音声認識アプリケーションにより,特定の音声が認識されるとそれに対応した目標座標がKobukiへ入力されます.Kobukiは目標座標へ車輪からのオドメトリ情報を参照しながら自律的に移動することができます.また,ゲームパッドによる入力では,ジョイスティックからのアナログ値の入力により,人間が直接Kobukiを操作できるようになっています.

~ロボットアーム~ Kinectから人間の腕の関節角度,コントローラからシミュレーションの計算開始の合図,及びグリッパの開閉の制御量を取得します.そして,シミュレーションの計算開始後ロボットシミュレータのOpenHRP3上で対象のロボット動かしながら,実機or ロボットシミュレーションのChoreonoid上のOrochiで動かします.動作中はシミュレーションと実機の時間を同期させて関節角度などの情報の記録を行います.

以下が作成・使用したコンポーネントです

投稿者: 
RyoTakeuchi

概要

  • ペンタブレット描かれた軌跡の通りにKobukiを移動させる

特徴

  • 軌跡を表示させることができる
  • 移動できない場合はKobukiが停止する

仕様

  • 言語: C++ , Python
  • OS: Windows 7 , MacOSX
  • 入力デバイス: WacomTablet(動作確認デバイス: Intuos 5)

コンポーネント群

  • WacomTablet: Wacom社製タブレットからの位置・筆圧の取得
  • PenKobu: ペンの描画と行動開始命令
  • RouteBuffer: 軌跡を記録する
  • VelocityCommand: Kobukiの制御のためのルートを生成する
  • KobukiAutoMove(編集): ルート情報からKobukiの制御に変換する
投稿者: 
f2um2326

このプロジェクトは機能的に大きく2つに分かれています. 1つはOROCHIの手先に固定したKinectを使用してOROCHI正面に座っている人の顔を検出してOROCHIがその人の顔を追うように動きます. もう1つの機能は,Bluetoothモジュールを備えた車型ロボットの頭部にARマーカーを付け,その上方に設置されたもう一台のKinectを使用して車型のロボットの位置を検出し,ロボットの動きを制御するというものです. 最終的に,OROCHIで検出した顔の輪郭に沿うように車型ロボットが走行することを目標とします.

以下が作成・使用したコンポーネントです

括弧内の文字の説明

・既存:既存のRTCを使用 ・編集:既存のRTCを修正 ・新規:新規に作成したRTC

ページ

ダウンロード

最新バージョン : 2.0.1-RELESE

統計

Webサイト統計
ユーザ数:2209
プロジェクト統計
RTコンポーネント307
RTミドルウエア35
ツール22
文書・仕様書2

Choreonoid

モーションエディタ/シミュレータ

OpenHRP3

動力学シミュレータ

OpenRTP

統合開発プラットフォーム

産総研RTC集

産総研が提供するRTC集

TORK

東京オープンソースロボティクス協会

DAQ-Middleware

ネットワーク分散環境でデータ収集用ソフトウェアを容易に構築するためのソフトウェア・フレームワーク