PepperのSDKを触った感想

PepperのイベントでSDK体験ブースがあったので、触ってみた感想。

マンツーマンでレクチャー受けながら、Pepper君にコマネチさせることができました。
ちなみに全くコードを書かないでコマネチくらいはさせられました。

SDKとPepperをつなげると、SDK内のバーチャルなPepperと、実物のPepperがシンクロします。
SDKからPepper君を停止、起動、基本の姿勢に戻すなども可能。

[話す]とか動作の箱を矢印でつなげて、動きをつける。
箱は自分でもコーティングして作成できるし、他の開発者とシェアもできる。

言語を選択して、言葉を入力。
[話す]箱をダブルクリックすると、声のトーンを調整するウィンドウが出てくる。

腕を動かすなど細かい動きは、SDKで腕を選択してから、Pepper君の手の甲を触ると記録モードになって、Pepper君を動かしながらポーズを設定できる。
その後にタイムラインを右クリックして、ポーズをタイムラインに登録。
もちろんSDKで関節ごとに角度を設定できます。

APIは1350以上。
ヘルプからリファレンスをのぞける。
発表前の充電アダプターに関する情報まで載ってる。
People perceptionは人間検知系のAPIでのぞくと面白そう。検知した人間のシャツの色を検知できたりする。
デモでは年齢まで推測してました。

ちなみにPepper君は税込213,840円、サポートは税込月々9,800円の3年縛り…
税込みで総額566,640円+手数料3,000円=569,640円
自分には高いよ(涙)

QiitaのPepperタグをフォローすると良いと思います。
http://qiita.com/tags/pepper