MAEDA Lab
MAEDA Lab
INTELLIGENT & INDUSTRIAL ROBOTICS
2023 年度 前田研究室 紹介
国立大学法人 横浜国立大学
大学院工学研究院 システムの創生部門
/大学院理工学府 機械・材料・海洋系工学専攻 機械工学教育分野
/大学院先進実践学環
/理工学部 機械・材料・海洋系学科 機械工学教育プログラム
前田研究室
240-8501 横浜市保土ケ谷区常盤台 79-5
機械工学・材料棟 (N6-5) 603 室(教員室)/ 610 室(研究室)
Tel/Fax 045-339-3918(教員室)/ 045-339-3894(研究室)
maeda ynu.ac.jp
https://iir.ynu.ac.jp/
2023 年度メンバ
教授 前田 雄介(大学院工学研究院 システムの創生部門)
博士課程前期/修士生(大学院理工学府 機械材料海洋系工学専攻 機械工学教育分野
/大学院先進実践学環)
上久木田 治毅
健汰
生野 瑞希
松井 一真
Pedro SAMAN
Rohit THAKUR
奥口 穂香
高橋 尚也
山田 修斗
学部生(理工学部 機械・材料・海洋系学科 機械工学 EP
佐藤 璃音
栗原 和大
小西 雅人
杉澤 翔馬
田畑 裕貴
2023 年度 前田研究室 研究紹介
SLAM 統合機構キャリブレーション (SKCLAM)
SLAM (Simultaneous Localization and Mapping)
ピュタにするで,マレー周囲の地作成と同,運
.我 SKCLAM
(Simultaneous Kinematic Calibration, Localization and Mapping)
マニピュレータ手先に搭載した RGB-D カメラ (Fig. 1) を利用して,地図作成と機構キャリブ
レーションが可能であることを仮想環境 (Fig. 2) 実環境 (Fig. 3) で確認している [1][2].ま
た,全天球カメラやステレオカメラを使う手法についても検討を行っている [3][4]
参考文献
[1] J. Li, A. Ito, H. Yaguchi and Y. Maeda: Simultaneous kinematic calibration, localization, and mapping
(SKCLAM) for industrial robot manipulators, Advanced Robotics, Vol. 33, No. 23, pp. 1225–1234, 2019.
[2] 聡利, , 雄介: SLAM
(SKCLAM) におけるチェッカーボードを用いた高精度化, 本機械学会論文集, Vol. 86, No. 891,
20-00028, 2020.
[3] 田中 靖章, 景輝, 伊藤 聡利, 前田雄介: 産業用マニピュレータのための全天球カメラを用いた SLAM
統合機構キャリブレーション, 日本機械学会ロボティクスメカトロニクス講演会 2020 (ROBOMECH
2020) 講演論文集, 2P2-B05, 2020.
[4] 長友 雄太, , 靖章, 田雄介: 産業用ロボットのためのステレオカメラを用いた SLAM
, 2021 ,
pp. 77–78, 2021.
Fig. 1 Manipulator Equipped
with an RGB-D Camera
Fig. 2 SKCLAM in Virtual Environment
Fig. 3 Example of an Obtained 3D Map
2
2023 年度 前田研究室 研究紹介
ロボットの教示
産業用ロボットは世界中で広く用いられており,今後もますますその活躍範囲を広げていく
ことが求められている.現状のロボットでは,その行うべき動作を人間が教示しなければなら
ないが,近年のロボットの高性能化・多機能化にともなって,その手間はますます増大してい
る.そこで本研究室では,ロボットの教示の手間を減らすための研究を行っている.
空間掃引を利用したロボット教示 ダイレクトティーチの要領でロボットをさまざまに動か
ことでロボット周辺の情報を獲得させるとともに,動作計画アルゴリズムによってロボット
の軌道を生成する.これによって,非熟練者でも,容易に品質の高い教示を行うことを可能
にする [1][2][3] (Fig. 4)
ロボット教示の支援技術 AR(拡張現実)を利用して,ロボットの可動範囲など,オンライン
教示に有用な情報を現実に重畳して表示することで,教示者を支援する手法を開発しており
(Fig. 5)上述の空間掃引を利用したロボット教示も利用できるようになっている [4].また,
ロボットにより組み立てられる製品の仕様変更があった場合の再教示を支援するために,教
示点の事後的移動とそれに伴う動作の自動生成を実現するシステムの提案も行っている [5]
参考文献
[1] , : , ,
Vol. 74, No. 737, pp. 115–120, 2008.
[2] S. Ishii and Y. Maeda: Programming of Robots Based on Online Computation of Their Swept Vol-
umes, Proc. of 23rd IEEE Int. Symp. on Robot and Human Interactive Communication (RO-MAN 2014),
pp. 385–390, 2014.
[3] Y. Sarai and Y. Maeda: Robot Programming for Manipulators through Volume Sweeping and Augmented
Reality, Proc. of 13th IEEE Conf. on Automation Science and Engineering (CASE 2017), pp. 302–307,
2017.
[4] 髙橋 健太, 前田雄介: AR を活用した ROS/MoveIt ベースのロボット教示支援システム: 空間掃引に基
づく動作計画機能の実装, 23 計測自動制御学会システムインテグレーション部門講演会 SI2022,
pp. 994–998, 2022.
[5] , : 教示移動動作画機能にり製の仕変更対応可能ロボト教
ステ, 22 計測自動御学シスムイテグーシン部門講 (SI2021) 演論文集,
pp. 3263–3267, 2021.
Fig. 4 AR Display of Swept Volume and Planned Path
Fig. 5 AR Display of Movable
Area with Fixed Gripper Pose
3
2023 年度 前田研究室 研究紹介
ビューベースト教示再生
,教
(Fig. 6) [1][2].ビ
end-to-end 学習により,対象物のモデルやカメラキャリブレーションを必要としないという特
徴がある.距離画像の利用 (Fig. 7) やオクルージョン対策の導入により,ロバストな教示の実
現を図っている [3].さらに,光弾性を用いた力情報の可視化 (Fig. 8) 利用して,力制御タ
スクへの適用を開始している [4].また深層学習技術の導入も行っている [5]
参考文献
[1] Y. Maeda and T. Nakamura: View-based teaching/playback for robotic manipulation, ROBOMECH J.,
Vol. 2, 2, 2015.
[2] 森山 祐樹, : 業用ロボットによるマニピュレーションのためのビュベースト教示再生,
日本機械学会論文集 C , Vol. 79, No. 806, pp. 3597–3608, 2013.
[3] Y. Maeda and Y. Saito: Lighting- and Occlusion-robust View-based Teaching/Playback for Model-free
Robot Programming, W. Chen et al. eds., Intelligent Autonomous Systems 14, pp. 939–952, Springer,
2017.
[4] 中川 , 石井 聡一, 前田 : 弾性を用いた力情報可視化に基づくビューベースト教示再生
い作業への適用—, 計測自動制御学会論文集, Vol. 54, No. 5, pp. 476–482, 2018.
[5] 藤浦 圭一, 前田 : Autoencoder 用いたビューベースト教示再生, 23 回ロボティクスシンポジ
ア予稿集, pp. 51–52, 2018.
camera
robot
object
human instruction
(a) human teaching
mapping
image
robot
motion
(b) image-to-motion mapping
camera
robot
object
mapping
(c) view-based playback
Fig. 6 Outline of View-Based Teaching/Playback
0 100 200 300 400 500
frame number
Grayscale
Images
Light
OFF
Range
Images
Fig. 7 Switching between Grayscale and Range
Images for View-Based Teaching/Playback
Fig. 8 View-based Teaching/
Playback with Photoelasticity
4
2023 年度 前田研究室 研究紹介
ケージングとケージングベースト把持
多指ハンドによる三次元ケージング ケージング (caging) とは,移動ロボットやロボットの指
で,物体をある閉じた領域に幾何学的に拘束し,その外には脱出できなくする物体拘束手法
である.本研究室では,三次元多指ケージング (Fig. 9) の研究を行っている.ケージングは
位置制御によって実現できるため現在のロボットハンドと親和性が高く,ロボットマニピュ
レーションのレパートリーを増やすという点で有効であると考えられる.現在,ケージング
成立のための条件の導出や,それを利用したケージングのための指姿勢の自動計画手法の開
[1],実機による検証 [2] (Fig. 10) を行っている.
ケージングベースト把持 ケージングの利点を活かしつつ,物体を把持する手法として,「ケー
ジングベースト把持」を提案している.この方法では,剛体部とその外側の柔軟部でロボッ
指を,剛体よっ物をジン上で,柔部のより
完成させる.これにより,力センシング・力制御なしでの物体把持を実現できる.我々は,
のケングストを定,把持成さため件のを行
る.また,各種ハンドによるケージングベースト把持 (Fig. 11) 実機により実現している
[3][4].対象物が変形可能物体である場合に対する拡張 (Fig. 12) も行っている [5][6]
参考文献
[1] 槇田 , , 雄介: 次元多指ケージングの十分条件の導出―対称ハンドによる四種類の
純形状物体の拘束―, 日本ロボット学会誌,Vol. 28, No. 5, pp. 599–605, 2010.
[2] S. Makita, K. Okita and Y. Maeda: 3D Two-Fingered Caging for Two Types of Objects: Sufficient
Conditions and Planning, Int. J. of Mechatronics and Automation, Vol. 3, No. 4, pp. 263–277, 2013.
[3] Y. Maeda, N. Kodera and T. Egawa: Caging-Based Grasping by a Robot Hand with Rigid and Soft Parts,
Proc. of 2012 IEEE Int. Conf. on Robotics and Automation (ICRA 2012), pp. 5150–5155, 2012.
[4] T. Egawa, Y. Maeda and H. Tsuruga: Two- and Three-dimensional Caging-Based Grasping of Objects
of Various Shapes with Circular Robots and Multi-Fingered Hands, Proc. of 41st Ann. Conf. of IEEE
Industrial Electronics Soc. (IECON 2015), pp. 643–648, 2015.
[5] D. Kim, Y. Maeda and S. Komiyama: Caging-based Grasping of Deformable Objects for Geometry-
based Robotic Manipulation, ROBOMECH J., Vol. 6, 3, 2019.
[6] 込山 , ダベ, 前田 雄介: パウチ状物体を含む変形可能物体のケージングベースト把持, 日本機械学
会ロボティクス・メカトロニクス講演会 2019 (ROBOMECH 2019) 講演論文集, 2A2-G08, 2019.
Fig. 9 3D Multifin-
gered Caging
Fig. 10 Caging of a
Sphere
Fig. 11 Caging-
based Grasping by a
Multifingered Hand
Fig. 12 Caging-
based Grasping of a
Deformable Object
5
2023 年度 前田研究室 研究紹介
ケージングマニピュレーション
物体が逃げられないように幾何学的に拘束するケージングの状態を利用して物体をあやつる
ことを,ここでは「ケージングマニピュレーション」と呼ぶことにする.
In-Hand ケージングマニピュレーション 物体をケージングの状態に保ったまま,ハンドのコ
ンフィギュレーションを変化させることで,ハンドの中で物体の位置・姿勢を変化させるこ
とができる.これを我々は「In-Hand ージングマニピュレーション」と呼んでいる.この
方法には,物体のセンシングをせずに位置制御でロバストな In-Hand マニピュレーションが
実現できるというメリットがあり,マニピュレーション計画アルゴリズムの開発,汎用パー
ツフィーダへの応用 (Fig. 13) などを行っている [1][2][3][4][5]
協調ケージングマニピュレーション ケージングでは物体の自由度を完全には拘束しないこ
を利用すると,位置制御ベースの協調マニピュレーションにおいても,対象物に対する過大
な内力の発生を回避することが可能になる.そこで,ケージング(もしくはケージングベー
スト把持)を利用した長尺物の双腕協調搬送の研究 (Fig. 14) を行っている [6].力制御を必
要とせず,エンドエフェクタを変えることで多様な物体のハンドリングが可能となる.
参考文献
[1] 倉田 優里, 雄介: 二次 In-Hand ケージングマニピュレーションの分類と検証, 日本機械学会
ボティクス・メカトロニクス講演会 2014 (ROBOMECH 2014) 講演論文集, 3P1-R04, 2014.
[2] Y. Maeda and T. Asamura: Sensorless In-hand Caging Manipulation, W. Chen et al. eds., Intelligent
Autonomous Systems 14, pp. 255–267, Springer, 2017.
[3] S. Komiyama and Y. Maeda: Position and Orientation Control of Polygonal Objects by Sensorless
In-hand Caging Manipulation, Proc. of IEEE Int. Conf. on Robotics and Automation (ICRA 2021),
pp. 6244–6249, 2021.
[4] 上久木田 , 西 佑太, 前田 : センサレス in-hand ケージングマニピュレーションによる汎用
パーツフィーダの実現, 22 回計測自動制御学会システムインテグレーション部門講演会 (SI2021)
講演論文集, pp. 3246–3248, 2021.
[5] 中西 佑太, 上久木田 治毅, 込山 , 前田 雄介: 汎用パーツフィーダのための平面内センサレス in-hand
ケージングマニピュレーションの計画, 日本ロボット学会誌, Vol. 41, 2023 (to appear).
[6] 平木 友香里, 前田雄介: ケージングを利用した力制御を要しない双腕協調搬送, 日本機械学会ロボティ
クス・メカトロニクス講演会 2020 (ROBOMECH 2020) 講演論文集, 2A1-M05, 2020.
Fig. 13 A Versatile Part
Feeder with In-Hand Caging
Manipulation
(a) wire harness (b) long pipe
Fig. 14 Dual-arm Cooperative Manipulation with Caging
6
2023 年度 前田研究室 研究紹介
光弾性を用いた力分布センシングとその応用
弾性光光,偏光カ用いとで,光に基ピク位で
析があり,そを用触力のセグをことる.我,先
端に光弾性体を備えたロボット (Fig. 15) 用いて,力覚センシングとそれに基づく力制御
を実現している [1].また,大部分を光弾性体で構成した力センシング可能なロボットハン
(Fig. 16) の開発も行っている [2]
参考文献
[1] 小濱 幹也, 前田 雄介: 光弾性法によるオンライン力覚センシングとその壁面押し付け力制御への適用,
21 回計測自動制御学会システムインテグレーション部門講演会 (SI2020) 講演論文集, pp. 707–709,
2020.
[2] 田原 芳基, 寛隆, 小濱 , 雄介: 弾性体リンクを用いた力センシングロボットハンドの
開発 応力分布解析の改善と評価—, 日本ロボット学会誌, Vol. 41, 2023 (to appear).
Polarization camera
(VCXU-50MP)
Green light filter
Wall attached to
force-torque sensor
Quarter wave film
Light source display
(linear polarization)
2-DoF robot
Polyurethane
photoelastic resin
Fig. 15 A robot finger with photoelastic fingertip
Fig. 16 A robot hand composed
of photoelastic bodies
7
2023 年度 前田研究室 研究紹介
ロボットによる多様な物体のハンドリング・組立技術
画像処理に基づく物体のピッキング 本研究室では巻ばねに特化した認識・位置姿勢計測手
を開発し,それを用いてビンピッキングを可能にした (Fig. 17) [1].他に,衝撃を与えて物
体に動きを与え,特徴点追跡によって未知物体を検出・ピッキングする手法も開発している
(Fig. 18) [2]
3D ブロックプリンティング ロック玩をロット自動組み立て CAD デル
状を生成できる,一種の 3D プリンタの開発を行っている [3][4].このシステムではCAD
モデルを自動でブロックモデルに変換し,さらにそのブロックモデルをロボットで組み立て
るための手順を自動決定する.そして,ロボットがそれにしたがってブロック玩具を組み立
てることによって,形状生成を実現している (Fig. 19)
柔軟物操作 物のショ,折紙をシス
行っている.カッティングプロッタを併用することで,折り鶴の折り工程の半分程度を自動
化することに成功している [5] (Fig. 20)
参考文献
[1] 小野 桂太郎, 小川 卓哉, 前田 雄介, 中谷 茂樹, , 清水 , 大内 規嵩: ステレオビジョンを用いた
巻ばねの認識とビンピッキング, 日本機械学会論文集 C , Vol. 79, No. 804, pp. 2769–2779, 2013.
[2] 敦賀 , 本田 , 前田 雄介, 廣野 : ピッキングのための衝撃を利用した未知物体能動的検出,
計測自動制御学会論文集, Vol. 54, No. 5, pp. 501–507, 2018.
[3] Y. Maeda, O. Nakano, T. Maekawa and S. Maruo: From CAD Models to Toy Brick Sculptures: A
3D Block Printer, Proc. of 2016 IEEE/RSJ Int. Conf. on Intelligent Robots and Systems (IROS 2016),
pp. 2167–2172, 2016.
[4] M. Kohama, C. Sugimoto, O. Nakano and Y. Maeda: Robotic Additive Manufacturing with Toy Blocks,
IISE Trans., Vol. 53, No. 3, pp. 273–284, 2021.
[5] 坂田 誠智, 前田 雄介, 鈴木 成也: 折り鶴の自動化を目指して: カッティングプロッタを用いた折り筋の
自動付加に基づくロボット折り紙システムの開発と袋折り・花弁折りの実現, 23 回公益社団法人計
測自動制御学会システムインテグレーション部門講演会 SI2022, pp. 2903–2906, 2022.
Fig. 17 Bin-Picking of Coil Springs Fig. 18 Impacting-based Picking
Fig. 19 3D Block Printing
Fig. 20 A Robot System to
Fold a Paper Crane
8
2023 年度 前田研究室 研究紹介
建設機械システムの知能化
建設機械やそれを使ったシステムの高度化・大規模化に伴い,効率や安全性を高めるための
知能化・ロボット化の取り組みが求められている.本研究室では,その一環として,鉱山で運
用されるダンプトラックシステ (Fig. 21) 交差点制御の研究を行っている.ダンプトラッ
クの交差点通過順序を最適化することで,鉱山の生産性を改善する手法を提案し,シミュレー
(Fig. 22) でその有効性を確認している [1][2]
参考文献
[1] 小川 雄大, 前田 雄介, 松井 康知, 坂井 , 研太, 竹田 幸司: 鉱山の生産性改善のための複数ダンプ
トラック群の交差点走行制御, 日本機械学会論文集, Vol. 87, No. 894, 20-00097, 2021.
[2] Y. Maeda, Y. Ogawa, K. Osagawa, A. Sakai and Y. Matsui: Worksite Management System And Worksite
Management Method, World patent application WO/2021/145392.
7 6
5
4321
0
89
11
10
12
13
14
15
DUMP
DUMP
LOAD
LOAD
STANDBY
STANDBY
Fig. 21 Dump Truck Fleets in a Mine Fig. 22 A Simulator of Dump Truck Fleets
9
2023 年度 前田研究室 研究紹介
人間の手とその巧みさのモデリング
ロボットに人間のような器用さを持たせるためには,お手本である人間のマニピュレーショ
ンのメカニズムを知ることが重要である.また,人間の手の特性を知ることは,使いやすい製
品設計などへの応用にも役立つ.このため,当研究室では,以下のような研究テーマに取り組
んでいる(産総研・生活行動モデリング研究チームと共同)
人の手のモデリングと計測 モーションキャプチャにより人間の手の動きを表皮も含めて表現
できるようにするための,デジタルハンドモデルの作成手法,および手の運動の計測手法の
開発を行っている.さらにこのモデルを利用して,手の関節の可動範囲や姿勢の快不快を計
測・モデル化する手 [1] どの提案を行っている.また,製品の利用の様子を知るため
簡便な把持測定デバイス (Fig. 23) [2] の開発も行っている.
把持の生成 ルハ,製品設応用.例
ば,個人差を反映した複数の代表的なハンドモデルを用いて把持生成をする (Fig. 24)
で,多くの人にとって使いやすい形状の設計に役立てることができる [3].手根管症候群
患者や高齢者を模擬したハンドモデルによる把持生成 (Fig. 25) も行っている [4][5]
参考文献
[1] 米岡 , つき, 前田 雄介: 母指の関節可動域と姿勢不快度の計測・解, 日本機械学会論文
, Vol. 84, No. 864, 18-00555, 2018.
[2] 平野 貴史, つき, 前田 雄介: 手部近位側方からの距離センサ情報にもとづく把持姿勢簡易計測,
24 回ロボティクスシンポジア予稿集, pp. 249–251, 2019.
[3] T. Hirono, N. Miyata and Y. Maeda: Grasp Synthesis for Variously-Sized Hands Using a Grasp Database
That Covers Variation of Contact Region, Proc. of 3rd Int. Digital Human Modeling Symp. (DHM 2014),
11, 2014.
[4] R. Takahashi, N. Miyata, Y. Maeda and Y. Nakanishi: Grasp Synthesis Considering Graspability for a
Digital Hand with Limited Thumb Range of Motion, Advanced Robotics, Vol. 36, No. 4, pp. 192–204,
2022.
[5] 髙橋 怜子, 宮田 なつき, 前田 雄介: Soft Finger モデルを用いた把持可否判定に基づく複数の把持形態
におけるデジタルハンドの把持生成, 日本ロボット学会誌, Vol. 41, 2023 (to appear).
Fig. 23 A Grasp Capturing Device
Robust
Gracile
LongShort
Fig. 24 Grasp Synthesis for
Various Hands
Fig. 25 A Synthe-
sized Grasp of a Uni-
versal Design Knife
by An Elderly Hand
10
2023 年度 前田研究室 研究紹介
ロボット技術の人間活動支援への応用
ロボット技術 (Robot Technology: RT) は純然たるロボットだけにとどまらず,我々の身の回
りの様々なシーンで人々の活動を支援するために活用されることが期待される.
本研究室ではスマート食洗機の実現に向けた提案を行っている [1][2][3].提案するシステム
では,食洗機(食器洗い乾燥機)を使う上で手間となっている,「食器を食洗機のどの位置に入
れるべきか」を考える作業を支援することを狙っている.具体的には,ユーザがスマートフォ
など使っての画を撮るこよっ,洗浄す食器種類に何
あるかを認識する.次いで,組み合わせ最適化問題を解くことで,最適な食器配置を計算し,
ユーザに 3D グラフィクスでわかりやすく表示する (Fig. 26)
また,人間が行う折り紙を支援するシステムの開発も行ってい [4][5].折り筋の自動付加
と折り手順の 3D 呈示 (Fig. 27) より,幼児教育や福祉の現場での折り紙制作への活用を
指している.
参考文献
[1] 倉田 , : マート食洗機のための食器配置最適化サポートシステム, 情報処理学会研究
報告, Vol. 2016-CDS-16, No. 9, 2016.
[2] K. Imai and Y. Maeda: A User Support System That Optimizes Dishwasher Loading, Proc. of 2017 IEEE
6th Global Conf. on Consumer Electronics (GCCE 2017), pp. 523–524, 2017.
[3] 小川 , : 像処理による食器計数を利用した食洗機用の食器配置支, 日本機械学会ロ
ボティクス・メカトロニクス講演会 2018 (ROBOMECH 2018) 講演論文集, 2A2-J17, 2018.
[4] 中島 裕二, 前田 雄介: 折り筋の自動付加と折り手順の呈示による折り紙支援システム, 38 回日本ロ
ボット学会学術講演会講演論文集, RSJ2020AC3J1-03, 2020.
[5] 鈴木 成也, , 田雄介: 厚を考慮した折り紙シミュレータ AR 用いた手順呈示によ
紙アステ, 械学クス・メクス 2021 (ROBOMECH
2021) 講演論文集, 2A1-M06, 2021.
(a) Calculated Result (b) Loaded Dishes
Fig. 26 Optimized Dish Loading Fig. 27 Origami Simulator
11