2020年6月7日日曜日

Afinia H480ケーブル修理


1年半前の話になってしまいましたが、3DプリンタのAfinia H480を修理した際の記録です。

症状: 出力を始めてから少ししてノズル温度異常を検知して止まる。エラーメッセージはnozzle too hot等。時々起こる。起こらないこともある。

web上の類似事例から探して、本体基板とプリントヘッドをつなぐリボンケーブル内部に亀裂が入っているのではないかと推測しました。エラー内容が時によって温度高過ぎまたは低すぎと両方のケースがありました。温度センサーの値を画面で見ていると、加熱前なのに280度など明らかに異常な値が出ていることもありました。更に、プリントヘッドの保護カバーを外すと(多分ケーブルの変形具合が変わって)動くようになったりといった現象もあったのですが、これもその仮説に合っています。
そのため、ケーブルを自作して交換しました。ケーブルは16芯フラットケーブルでMILスタンダードのボックスヘッダコネクタと同じ形状のように見えましたので、この部品を使いました。ヒーターの配線もこのケーブルを通っているので、ある程度配線の太さは注意した方が良いかもしれません。
ケーブル長は見た目の印象よりも長く、80cm前後ありました。

交換後、ずっと正常に動作しています。正解だったようです。
同ケーブルにはヒーターへの電源も通っていますので、症状の出方は他にも色々あると思います。

1つだけ失敗した点として、ケーブルの向きを間違えました。
今回購入したコネクタには、オプションとして線を折り返して挟むようにして固定する部品があります(メーカーがオプションとしているかどうかは知りません。ケーブルの断線を防ぐのには必須かもしれないと思います)。これを使うときと使わないときではケーブルの圧着方向を逆にする必要があります。もともとのケーブルはこの部分がなかったのですが、断線を防ぐためと考えてこの部品をつけるようにしました。すると、干渉によりカバーが閉まらなくなってしまいました。カバーも改造版を自作することになりそうです。



2020年3月20日金曜日

M5StickVを使った物体追跡ロボット


3月15日に行われた第15回チロルチョコロボット大会に出場しました。
ここ数年続いている射的競技があるのですが、これに新しい方法で挑みました。

自律的に紙コップ標的めがけて進んでいく車両型ロボットを作り、これを発射体として使いました。発射体というと普通は何か物を投げたり転がしたりするものですが、こういうのもありだということです。
元々は障害物の裏に回り込んで標的に命中させられないかと発想したものでした。これまでにおよそ紙コップ2個分ぐらいの微妙な照準のズレを正す程度の性能が実現できました。
大会でも得点を挙げることができ、好評でした。

ハードウェア


前輪2輪、後輪1輪の3輪車です。後輪で舵を切ります。駆動輪は無く、ロボットが自力で移動する能力はありません。その代わり、親機からスロープによって送り出され、慣性によって走行し、操舵だけして進行方向を制御します。


フレームと車輪はFDM方式の3Dプリンタで作成、ABS樹脂製です。

すべての車輪はボールベアリングで自由に回るようになっています。タイヤの代わりにNBRゴムシートを貼り付け、地面へのグリップを確保しています。
操舵輪はR/C用サーボモーター(MG90S)をマイコンから制御して方向を変えられるようになっています。

操舵機構は動画ではほんの少ししか動いていないように見えますが、ホイールベースが短いのでこれで十分曲がります。また、あまり急な曲率で曲がろうとすると遠心力で倒れてしまいますのでこのぐらいが適正です。

制御

カメラで得た画像から紙コップ標的の位置を検出して左右へのずれ量を計算、それに応じて左右に曲がって標的に向かいます。

制御にはM5StickVを使用しました。
M5StickVは、人工ニューラルネットワークの出力計算(推論)を高速に行うための専用回路を搭載したマイコン、カメラ、LCD、SDカードスロット等を搭載した製品です。MicroPythonでの開発環境が提供されています。「AIカメラ」という触れ込みにあるように、単独でニューラルネットワークベースの物体認識アルゴリズムをリアルタイムで適用してビューファインダーのように見る、というような応用ができます。ニューラルネットワークの構造と重みのデータをFlashまたはSDカードに入れ、それをPythonのAPIから呼び出して使うことができます。
今回は画像認識のため、高速な物体検出アルゴリズムの一つYOLO-v2を応用しました。物体として紙コップのみを認識するモデルを作成しました。

なお余談として、これは元々ロボット「Teapot」本体の方のチロルチョコ投擲装置の自動照準機能に使ってみようとしていたものでしたが、子機を発射するほうが面白そうだったので計画を変更したものです。

※本来の搭載場所にすると液晶画面が隠れるのでずらして置いて撮影しています。

制御則としては、ずれ量に比例して操舵輪の目標角度を出力するP制御を行っています。操舵輪をあまり急な角度(とはいっても数度ぐらい)にすると転倒してしまうため、上限を設けてあります。ちょうどすぐ上の動画ぐらいの角度が最大です。

発射装置

本体のロボットが「発射装置」としてスロープを牽引する形でチロルチョコロボット大会に出場しました。

このスロープは元々仮設の実験装置でした。牽引用フックと子機保持用ストッパーを付けて本体のロボットの一部とし、無線操縦で移動および方向を定めて発射できるようにしました。


今後の課題(今回先送り・誤魔化した事項)

  • 速度に合わせてフィードバックゲインを変えるべきであるが、速度計測手段がない。
  • 物体の物理的な相対位置ではなく、画像内での物体位置を計測と制御の対象としている。物体検出が十分正確であれば、地面平面への拘束、または物体の見かけ上の大きさから奥行きを含む物理的な相対位置が推測でき、これを制御に用いるのが本来である。
  • 物体検出が10fps程度であり、高速走行すると補正が間に合わない。
    • 現状、命中までに2~3回ぐらいしか認識を反映するタイミングがないのであるが一応それらしく動いて見える。
  • 走行速度が速すぎると、画像がmotion blurで滲むため検出できなくなることがある。
    • 速度が速くなりすぎないように発射台の方を調整した。
    • 車輪の転がり抵抗を抑えて低速で走行する距離を長くしている。
    • また、スロープで投下したときの速度でぶれた画像を学習させており、それなりに検出できるようになっている。
  • サイズ制限に合わせてM5StickVを横置きしたため、カメラが左側に偏った位置になる。そのため右側の視野が狭い。
    • 現状、M5StickV全体を右に少しパンした姿勢で取り付けるというhackyな方法でごまかしている。
  • 画像の224x224の中央領域のみを使用しているため、視野が狭い。そのため追跡できる範囲が狭い。これはサンプルのプロジェクトのYOLOv2の実装をそのまま使用したため。320x240の画像をそのまま入力とするような認識ネットワークを作成する。

参考文献



2019年12月24日火曜日

Humanoid Robot Sports カーリング用プログラム解説


前回紹介したロボットカーリング。私のロボットに実装した、画像認識に基づく自動制御についてのおおまかな解説です。

どんな競技?

山口 辰久さんの写真
カーリング競技のルールはこちらに公開しました。→IRCカーリングルール(Googleドキュメント)面倒であれば、とりあえずゴルフのようなもの、と思ってもらえれば結構です。
関東ロボット練習会での実演例です。全体の流れがわかると思います。

位置の認識

物体の位置や向きは地面平面上でロボットを中心とした座標で表します。ロボット進行方向をx軸、左方向をy軸、足元を原点とします。
周囲の環境をマッピングするようなロボットの場合これに加えて原点を競技台等に固定した座標系も用いるのですが、今回それに相当する処理は実装しませんでした。ひたすらゴール方向に蹴る動作を繰り返せば課題は達成できるからです。
途中に残ったパックを回避しながら歩く、というような高度な処理をするならそれらを含めたフィールドの地図を作る必要があるでしょう。

物体の検出

処理の最初に、カメラの画像を地面と平行な平面に投影します。Homographyと呼ばれる、変面から平面への射影変換(回転と移動と遠近法的な変形)です。これにより以降、物体の大きさや形状を単純に画像上の面積・形状として扱うことができます。(位置にかかわらず縮尺が一定となるため)
厳密には、パックは高さがあるので形状が若干縦長に伸びた形になります。しかし、遠い位置にある場合はあまり精度はいらないので無視しました。

遠くを見ているときの画像例(右は直交化後各種要素の検出結果を重畳表示したもの)

※チェッカーボードは処理を見た目にわかりやすくするための参考用に置いたものです。

 足元を見ているときの画像例



ゴールとパックはいずれも画像上で特定の色の領域として検出します。更に面積が一定以上という条件、それから丸い形状ということで周長と面積の比が円に近いようなものという条件も付加しました。
パックは黄緑色のものにしました。ゴールの黄緑色と近いのですが、自分に近い方をパックとして認識します。
また、ゴールから遠い時にゴールの方向がわからないことも想定して、コースの端を認識する機能も用意しました。直線Hough変換に基づくものです。

カメラ

パックが遠い時はカメラの俯角を小さく(25度程度)して遠くを見る必要があります。このままでは足元が見えないので、30cm程度まで近づいたらカメラの俯角を75度程度にして下を見ます。
これに合わせて2通り、直立状態におけるカメラと地面の位置関係を事前に計測してあります。そのキャリブレーションデータを使って上のHomographyを計算します。
歩行中は視点の位置や姿勢が正確にはわかりませんが、先に述べたように精度はさほど必要ないので直立時と同じとして計算しています。

移動

まず、パックを蹴るための移動について。
パックに向かって歩いてきます。ロボットから見たパックの向きを正面にするように旋回角度へフィードバックしつつ前に進んでいきます。

ただこれだけですと、ゴールの方向から進行方向が外れてしまうことがあります。
そのため遠くを見てゴールとパックが両方見えているときは、パックからゴールへ引いた線の傾きを求め、それが0(真正面方向)になるように更に左右方向への移動や旋回を上乗せします。これらのフィードバック成分を適度に組み合わせる(現物合わせでゲイン調整する)と、うまく位置取りをするような動きが生成できました。

具体例で説明します。図ではロボットの真正面にパックがあります。これだけなら真っ直ぐ歩くところですが、パックからゴールへ引いた矢印を見ると、左に傾いています。そのため自分が右の方に移動するようにします。これは、ゴールとパックを結ぶ線の延長線上に近づく方向になっています。このままではパックに対してそっぽを向いてしまいますが、延長線上に近づくとこの効果は減っていきます。代わりに、先の「ロボットから見たパックの向きを正面にする」旋回が優位となり、パックとゴールの方に自然と向き直っていきます。

この処理が適用されているところは、IRC2019大会での動画がわかりやすいと思います。


パックが足元近くに来たら、前後歩行と横歩きを使ってパックが所定の位置に来るように調整します。所定の位置というは、キックモーションに合わせてちょうど上手く蹴ることのできる位置を予めロボットからの相対座標で与えています。
歩行中は左右への重心移動動作によってカメラの位置が随時変わっていますが、これを補正する方法は現在用意していません。このため精度よく検知するのが難しいので、ある程度近くになったら立ち止まって画像撮影・観測→数歩移動、という動作を繰り返して最終調整をします。

最終調整・ゴールへ向けて蹴る

カメラを前方と下方に交互に向けて、足元にあるパックとゴールとの距離・位置関係を得ます。パックが蹴るための位置十分近く、かつゴールとパックを結ぶ線がロボットの正面方向に平行となるまで、何回か歩いて停止・観測を繰り返します。実際には何回か繰り返したら強制的に次に移るようにしました。必ずしもぴったりに調整できず、そして競技時間の制限もあるためです。

最後に蹴る強さを決めます。蹴る強さと飛ぶ距離の関係を予め計測しておきます。最弱のキックで200mm程度としました。本来は確率分布を持ったものになるはずですが、ひとまず、蹴った強さに応じて確実にそれだけ進むと仮定しています。
十分近ければ赤色を狙う、そうでなければ黄色ゾーン手前までに留められる距離で最大限、というだけのアルゴリズムとしました。これにより、できるだけ黄色近くまで寄せてそこから真ん中を狙う、という挙動になります。

見えないゴールへ向けて蹴る

話が前後しますが、ゴールから遠いときの戦略について。
コースの端とロボットとの位置関係は使用していません。パックが見えている場合、それに向かって歩いていけばコースアウトすることはないからです。
とはいえ、向きを考えずに蹴るとパックが次第に端に寄っていってコースアウトしてしまうので、ゴールが見えればその方向、見えなければコースの縁の線に対して平行な方向に蹴ります。ここでコース端の線検出結果を使います。

その他

自律競技では操縦型と異なりキック回数が無制限となっています。そのため、サッカーのドリブルのように歩きながら細かく蹴ってゴール付近まで運ぶロボットもいました。Spiritにはカメラが1台しかなく、ゴールと足元のボールを同時に見ることが難しくなっています。そのため、ゴルフのように止まって長い距離蹴った後歩いて追いつく、という方式にしました。

2019年10月31日木曜日

International Robot Contest 2019 Humanoid Robot Sports 参加

10月17日~19日、韓国ソウル市郊外のKINTEXで行われたInternational Robot Contest 2019 Humanoid Robot Sportsに参加しました。



例年、ROBOT JAPANが選定した海外招待枠の選手が参加しているものです。
自律型部門とラジコン部門があり、更にキットリーグと一般リーグに分かれています。それぞれに複数の競技課題があります。

自律型部門の一般リーグ(High-tech League)では、「タワー建設」と「カーリング」という2つの競技が行われました。
タワー建設は今年始まった新競技で、穴の空いた円盤を大きい順に拾って棒に通す速さを競います。(ハノイの塔の木製玩具を使います。)
カーリングはゴルフの要領でパック(平べったい円筒)を蹴っていき、同心円状のゴールに入れて得点を競います。
なお、カーリングのルールブック日本語版を大会とは関係なく作成しましたのでこの競技に興味を持った方はご参照ください。

私は今回カーリングのみ出場しました。床の上にある色付き物体の認識と簡単なフィードバック制御があれば何とか競技が成立するので、その方針で自動制御プログラムを作りました。これは次のブログエントリで説明します。
調整不足な点もいくつかありましたが、運良く得点をあげることができました。最後、ゴールまでの距離を判断し、赤い5点ゾーンを狙ってシュートしています。キック強度と距離の対応を現地で調整しなかったために想定したよりもパックが飛ばず、黄色の1点ゾーンで止まってしまいました。それでも一通りの動作は完了できたので良かったと思います。

前述の通り比較的単純なアルゴリズムでも一応得点はできましたが、安定して高得点を挙げようとすると、より高度な処理も次第に要求されてくるのではないかと思います。すでにフィールドにあるパックを考慮する等です。その意味で段階的に挑める良い課題ではないかと思いました。
韓国国内の学生チーム多数の他、ROBO-ONE autoにも出場した香港のチームがチャレンジしていました。

また、ラジコン型部門の各種競技も行われました。

  • R/C部門
    • ボクシング:前方向パンチ攻撃限定の格闘競技
    • ECO:紙パックや空き缶等の分別回収と争奪
    • タワー建設:前述、2台同時に行って速さを競う対戦形式
    • カーリング:前述、自律と違って対戦形式
  • (チーム部門)
    • ダンス
  • 国対抗団体戦
    • ファイト:格闘競技、ロボファイト大阪に類似(横攻撃あり)
    • カーリング
    • ロイヤルランブル

ECO競技は今年初めて行われました。開始時に資源が中央に乱雑に置かれていること、相手ゴールの物体を拾って奪うことも許されていることから、戦術・戦略が意外と難しく感じました。

タワー建設。ハノイの塔の木製玩具が使われています。人間でも対象物体を摺動させながら半ば触覚に頼って行う作業で、ロボットでスムーズに行うのはそれなりの工夫が必要だと思います。日本の参加選手はラジコンで手先位置の微調整ができるようにして対処していました。

ファイト、ボクシング競技は人気が高いです。ギャラリーの数が明らかに増加します。


私はこの中のカーリングにも出場しました。
個人戦ではシステムの不備があって途中で操縦不能となり、リタイアとなってしまいました。国対抗の団体戦ではレグホーン、スコブルとともに日本チームとして出場し、優勝しました。私は準決勝で9点差を逆転するシュートを決めることができました。

レグホーンのNAKAYAN氏が説明字幕付きの動画をアップロードされています。

2019年6月4日火曜日

第9回ROBO-剣参加

5月18日の第9回ROBO-剣に参加しました。
トーナメント準優勝、また知能・シミュレーション賞を受賞しました。

今回もまた、基本的なアルゴリズムは一緒のまま、微調整しての参加でした。
見た目にわかりやすいものとしては、固定用の吸盤を変更しました。今まで使っていたPROMATEバキュームリフターはガラスのような平滑で空気の漏れにくい表面にはしっかりと着きましたが、試合で使われる机では表面になじまず空気が漏れ、しばらくすると外れてしまうという欠点がありました。そのため粘着性があってよく馴染む吸盤4個を使って固定するように変更しました。


また、別途実験の結果、KONDOのKRS-4000用アルミローハイトホーンは、ロットによっては平均しておよそ2.3度(degrees)ぐらいの遊びがあることがわかりました。(別ロットでは0.3度ぐらいに収まっているものもありました。)念の為述べておきますと、この遊びというのは、ギアではなくサーボ出力軸とサーボホーンの間の動力伝達を行う、セレーション部分の隙間によるものです。これはホーンの止めネジを強く締めても解決しません。平らな面同士の摩擦によって少しだけ留まるので手でホーンを回してもわかりませんが、位置保持状態にしてフレームに力を掛けると、遊びの分だけ「カクン」とずれ、そこでまた摩擦で留まるような状態です。そのためせっかくトリム調整やセンサーとのキャリブレーションを行ってもそこからロボットが頻繁に乖離してしまいます。
このロボットには強度より精度、というか再現性が不可欠ですので、樹脂製のローハイトホーンに変更しました。これにより若干良くなったような気がします。特に、上腕ひねり軸は打撃の左右方向へのズレに最も大きく影響していました。



準決勝戦の試合です。「コビス」はROBO-ONE格闘部門の常連チームで、今回はROBO-剣二足部門と兼用のロボットでした。架台に載せて片腕部分のみを使い、必要なマーカーも付けることでアーム部門に出場できる、ということのようでした。相手から打ちにくいように小手を上に上げたり後ろに大きく倒した姿勢としたり等、ルールをよく研究しているように見受けられました。カラーカメラを搭載しており、試合前に色領域の検出のデモも行っていましたが、自動制御にはまだ使っていないとのことでした。
逡巡には障害物の干渉を考慮する機能はまだできていないのですが、運良く小手を決めることができました。振りかぶるように高い姿勢を経由するヒューリスティクスを入れており、その影響で偶然都合よくガードされない角度から打撃することとなったためではないかと思います。

決勝戦「ガルー」との対戦です。
予め決められたいくつかの打突動作をする方式とのことでした。相手の接近を検知するセンサーはあるのが見えます。これによって相手が接近してきたら避ける、という動作を以前は行っていたと思います。コメントの内容から推測するに、有効打突部位の位置を検知する機能はなく、相手ロボットが来そうな場所を当てられそうな軌道で振るというものだと思われます。最も目立った点としては、写真のように、相手ロボットから絶対届かない距離まで逃げる機能を持っていました。
逡巡は標的が止まっていると仮定して打突動作を行っています。そのため、相手が攻撃のために近づいてきたときにはそれを打とうとするが、実際には相手はもう引っ込んでいるので空振りする、というような動きになってしまいました。
また、たとえ竹刀が届かないことがわかっても、ある程度の範囲であればとりあえず剣先を最も近づけられるような打突を行うようになっています。そのためこの防御姿勢の相手に対しても空振りを繰り返すことになります。
互いに有効打が出なかったため、延長戦となりました。最後は、逡巡が空振りによって胴が空いているところにガルーの攻撃が当たりました。
標的の検出処理は秒間5フレーム程度かそれ以上で処理できているので、多項式関数のフィッティングと外挿によって移動予測ができるのではないかと思いました。次回大会までに試してみます。

第2回となる二足部門も行われました。

今回二足部門参加ロボットは、すべてラジコン型のロボットでした。ほぼすべての試合で、たとえ相手に隙があっても有効打突部位に当てるのに大変苦労しているのが伺えました。要因の一つは、市販のロボット型ラジコンキットのシステムを使っているロボットが多かったため、腕の動きで細かい狙いを定めるプログラミングが難しかったためではないかと思います。ROBO-ONE格闘競技と同じように、足を使った移動で打撃方向を微調整している様子が伺えました。この点、「コビス」や他のいくつかのロボットは上半身の動きで左右に微調整できるように操縦系を工夫していたのが見えました。しかしながらもう一つの要因として、ロボットを斜めから見るため、竹刀を振ったときどこに当たるかが操縦者から見て把握しづらいというのがあるのではないかと思いました。操縦型でもまだいろいろと工夫の余地があって面白いと思いました。


エキシビジョンとして二足部門とアーム部門の対戦も行われました。アーム部門のレギュレーションはROBO-ONEの標準的なサイズの二足歩行ロボットと対戦できるように考えて作られているとのことです。最初の関節(肩に相当)が地上からの高さ230mmというのがその最たるものです。

Bluethunderとの試合です。

前述のように止まっている標的しか打てないアルゴリズムですが、二足側操縦系のコマンドによっては面などが少し同じ場所に留まる期間があり、そのときに当てられたという感じでした。録画に失敗してしまったのですが、別のロボットともう1試合させてもらい、そちらも2-0で勝利しました。
さすが自動制御だから速い、というような感想を貰ったように記憶しています。しかし実際は打撃の速さは他のアーム型ロボットに比べてさほど速くなく、また今回出ていた二足部門のロボットに及びません。有効打突部位を正確に狙っていて、かつアームの最大長ぐらいの遠い距離からでも打つのですごく速く見える、ということではないかと思います。
センサーで情報を得て計算によって打突動作を生成するという自動制御ロボットのメリットをわかりやすく示せたのではないかと思います。

腕と竹刀の長さが両部門で同じなので、究極的には踏み込むと同時に打撃が行える二足側が有利なのではないかと思います。今はまだフルにリーチを活かしているロボットが少ないため、若干有利に戦うことができました。

また、次回か次々回は私も二足部門にも出場したいと思います。

2019年5月11日土曜日

Maker Faire Kyoto 2019に出展

5月4日、5日に行われたMaker Faire Kyoto 2019に出展しました。京都では今回初開催でした。Miniと付かないMaker Faireとしては日本で2カ所目になります。

出展者名「山口自動機械」でロボットアーム書道とロボット剣道のデモ、そして手乗り二足歩行ロボットの展示と販売を行いました。

3年前からロボットアーム書道として展示しているアームロボット「逡巡」ですが、元々ROBO-剣のために作ったものですので、その本来の動作も実演しました。ROBO-剣の動作を披露するのは、Maker Faireのような展示会形式のイベントでは今回初めてでした。なお、他にはROBOT JAPANの一発芸競技部門で披露したことがあります。

書道についてはベクタデータから筆の軌道を自動生成するシステムを作りかけたところだったのですが、字が描けるところまでは開発が間に合わなかったので今まで同様直接教示によるデモを行いました。その特徴を活かして書道の筆使いのお手本のような動作でゆっくりと動作するところを見てもらいました。

ROBO-剣のシステムについては、デプスカメラで標的を見つけて自動で打撃する実演を行いました。実際にダミー標的を動かしながら認識する様子をPCの画面(Rviz)で見られるようにしてあるので、これを見せながら処理の流れを説明しました。ロボットを初めて見る人にも、良く理解してもらえたのではないかと思います。

ただ、遂行するタスク自体が地味なので遠目に見た時はあまり目立たなかったように思います。次があれば、もう1台同じようなロボットを作って試合を見せる、というように説明無しでもわかりやすいものにしたいと思います。

また、何人かのmakerからはROSの活用やアルゴリズムについていくつかの貴重なアドバイスを貰えました。今後に活かしたいと思います。

手乗り二足歩行ロボットは3台売れました。忘れられがちですが、個人のCommercial Makerとして出展&販売しています。この物品販売については一度経験してみようということで始めたものでした。今では、展示以上に積極的にmakerコミュニティに関わっていきたいというような感じで続けているように思います。今回もまた、機械設計が専門でメカトロに興味を持ったという人、地域のイベントで操縦体験として使ってみるという人等、予想しなかった様々な反応を得られたので嬉しく思います。もう少し台数を作って持っていければよかった、というのが反省点です。今後もまた改良を重ねてイベント等で頒布を続けていきたいと思います。

2019年3月23日土曜日

魚型ロボット試作

魚型ロボットを作ってみました。
手乗り二足歩行ロボットの部品を流用し、防水は食品用チャック付きポリ袋の中に機械全体を入れただけのものです。
この形だと関節の隙間や電子回路周辺の空洞によっても浮力が生じます。これによって当初の(あまり根拠がなく感覚的な)予想よりも全体の比重が小さくなったため、重石を入れて可動部が水面下になるようにしました。重石がないと、横向きに水面に浮かんでしまいます。これはこれでまた面白そうですが。
一応推進と方向転換ができるようにはなりました。
何も知識無しで、進行波があれば推進力が出るのではないか、程度の理解で始めました。そのため理にかなった造りでは決してなく、性能が不十分だと思います。次のバージョンを作る前に文献をあたってみます。


Afinia H480ケーブル修理

1年半前の話になってしまいましたが、3DプリンタのAfinia H480を修理した際の記録です。 症状: 出力を始めてから少ししてノズル温度異常を検知して止まる。エラーメッセージはnozzle too hot等。時々起こる。起こらないこともある。 web上の類似事例から探して、本...