6月14、15日、知能ロボットコンテスト2025にロボット「逡巡 」で出場しました。
昨年同様、新ROBO-剣 用のロボットを最小限の改造で流用、基礎的なプログラムの開発を進めるとともに実運用して問題点を洗い出すという目的でした。
結果 は決勝戦まで進出、チャレンジ技術賞を受賞 しました。ロボットを1つのロボコンで終わらせず工夫して活用しているということが、技術的チャレンジとして評価されました。
新ROBO-剣参加時と異なる点は以下の通りです:
竹刀を吸引装置と交換(剣の刀身部分も交換、本来は柔軟な竹ひご) 足元のボールが見えるようにカメラの取り付け方を変更 スタートスイッチとして使っている無線ゲームコントローラーをロボットに搭載 (知能ロボコンルール上はロボットのパーツの一部、よって単独型) プログラムの一部 (ボール認識、アームの動き、知能ロボコン競技のための動作シーケンス等) 結果として、アームが不必要に長い上に本来ないはずの大きな質量を先端に増やしてしまっており、ロボットの性能としては良くない状態なのですが、その反面動きも見た目も「本来の用途と違うロボットを改造した」という感じがして特徴的になったのではないかと思います。
VIDEO
決勝戦の映像です
昨年より主にソフトウェアの開発を進め、またセンサーを追加して一応の完成といえる状態まで進めることができました。しかしながら、対象物エリアの全面を探索するための最終的なアプリケーション部分が完成しなかったため、エリア半分ぐらいまでのところでプログラムとしてはシーケンス終了となり、時間を残して競技終了となりました。満点を狙える程にするためには個別の動作、特に対象物探索をシームレスに行うなどしなければならないので、単純に探索範囲を追加するだけでは難しかったと思います。
知能ロボコン参加ロボットとしての昨年からの実質的な改良点は以下のような事項があります:
ボールをゴールへ投入する際、昨年は後方に投げるようにしていました(
去年の動画 参照)。この動きは実はとても速いのですが、ボールを地面に跳ねさせるため若干不確実性があると考え、今回はゴール前まで持っていき、地面の高さまで下げてから落とすようにしました。このとき、ボールを上に保持する姿勢から下げた姿勢へと単に各々の関節角度を遷移すると、肘と肩が同時に伸展した状態を経由するためにゴールネットに接触してしまいます。そのため、キーフレームをいくつか追加して先に肘を下げるような動きとしました。(映像で見てください)
また、ボールを拾う際にも、吸い付けたボールが更に前方にある壁やボールと干渉しないように、少し引き付けながら持ち上げているのも注意深く見るとわかると思います。
LiDARのYDLIDAR GS2を車体下部前方に追加しました。これはもともと(2年前から)ROBO-剣で相手または床を検出するようにと用意していたものでしたが、今回ようやくロボットに取り付けられた形です。スキャン面は水平面内に向けて、LiDARの最大距離まで壁を検出できるようにしました。
昨年は移動制御がちゃんとしておらず、長い距離を移動するとどうせ失敗するだろう、ということで常に最も近い赤ゴールに投げていました。上記、自己位置補正が入ったことで半永久的に動き続けることが可能となったので、色分けして捨てる機能を実装しました。色の認識は、実はボールを拾う際にカメラで位置と同時に色も認識しているため、昨年から変更ありませんでした。
昨年時点では、PID制御すらフルに実装されておらず、ほぼP制御(本来は目的地から遠いときに速度ベクトル方向を与えるための処理の流用)しかなく、かつ駆動輪モーターのバックラッシによる発振を抑制するために、停止位置誤差も数cm許容していたような状態でした。そのため対象物の拾い上げもよく失敗していました。今回、目標地点付近では位置を目標位置にする普通のPID制御(但しx,y方向独立)を導入し、パラメータ調整をちゃんとすることで、目的地に正確に停止できるようにしました。移動終了判定の誤差が1cm以内となっています。映像でも、一旦止まったように見えてその後じわっと微速で動き出して調整する様子が見えると思いますが、これがPIDの積分項が効いている効果です。
画像をもとにボールを拾う位置に移動するときも同様のことを行っています。これにより確実にボールを拾えるようになりました。やはり自動制御ロボットでは基本的な動作を順に積み上げていかないといけないという好例ではないかと思います。
その他の写真:
今年は、競技中に自分で写真を撮るぐらいの余裕がありました。(動画記録用デジカメはまた別にあり)
今年初めて、パンフレット用のロボット紹介写真とデータがポスターとして掲示されていました。とてもわかりやすくて良かったと思います。