自動運転技術に自分の理解が追いついてなかった話
2023-04-06
azblob://2023/04/07/eyecatch/2023-04-06-automatic-operation-and-driving-support-000.jpg

はじめまして!

これからお世話になります、23年卒のエンジニア見習い満井空(みついそら)です。

自己表現苦手マンによる初ブログということで、多少堅苦しかもしれませんがPCの前で苦悩している姿を想像しながら楽しんでもらえればと思います。

自己紹介

兎にも角にも私のことを知ってもらおうということで、まずは自己紹介から

  • 氏名 : 改めまして、満井空です。
  • 年齢 : 22歳…誕生日が2月22日なのに2022年に22歳になれなかった(当時は21でした)ニアピンボーイです。
  • 出身地 : 熊本県…お城が有名で馬刺しが美味しいです。あの尾田栄一郎先生の出身地でもあります。
  • 出身校 : 広島商船高等専門学校 産業システム工学専攻…離島(フェリーで30分)にあるので通学が大変でした。

趣味も触ったことのある技術も広く浅くという感じでありまして、ゲームしたり、お食事処を探したり、Unity触ってたり、HDevelop触ってたりと興味が湧いたら手を出していくスタイルです。今年からはエンジニア(見習い)ということで、手を出してきたことにも新しく挑戦することにも深くのめりこんでいきたいという心意気でございます。ですので、皆さんも広めたい趣味や知識があればぜひ私を沼に沈めてください!

研究について

本題ですが、ここからは私が専攻科時代に行っていた研究についてご紹介出来ればと思います。

私は「画像処理による対抗車両の検知」というテーマで研究を行いました。

ホーン……で?となる方もいらっしゃると思いますので、とりあえず「ドライブレコーダーを使ってお年寄りの運転のサポートを試みてた」と思っておいてください。なるほどなるほどと、では、テーマを聞いて皆さんはこの研究についてどんなイメージが湧きましたか?

「なかなかおもろいことやってるやん」「はえー、なんかすごそう」

と少しでも興味を持っていただいた皆さん、ありがとうございます。

…しかし、中にはこんなことを思った勘のいいカタもいらっしゃるのじゃないでしょうか?

「えっ、自動運転がありますけど?w」「もしかして、EyeSightをご存じない?ww」「自動運転でよくね」「EyeSightと何が違うん?」「EyeSightが…」EyeSightに…」

はい、察した方もいるかもしれませんが研究を進めるとどうしても既存技術との比較が必要になってくるわけですね。そしてそこを質問されるわけです。(*その中でEyeSightの名前が実際に出ただけで別に恨みがあるわけではありません笑)

そこでです。

皆さんは自動運転についてどれくらい理解されているでしょうか?なんとなく便利な技術、なんとなく近未来な技術で片づけていませんか?(私はそうだったので質疑応答で痛い目を見ました。)

そこで、今回は私もあいまいだった自動運転について、ざっくりとどんな技術なのかと知ってもらいたいという目的で記事を作成しました。

自動運転レベル

一口に自動運転といってもその性能には振れ幅があります。それを一定の基準で段階的に分けたものを自動運転レベルといいます。ではどのレベルでどんなことができるのか見ていきましょう。

レベル0

「運転自動化なし」です。走行もブレーキも運転手が行います。

人間でいえばすべて面倒を見ないといけない赤ちゃんのような状態ですね。

レベル1

いわゆる「運転支援」です。自動ブレーキ(加減速の制御)や車線内走行の維持(操舵の制御)などの車両運動の制御を単体で搭載している場合はこのレベルです。

赤ちゃんの手を引いてあげれば歩いてくれるようになった感じでしょうか。

レベル2

「部分運転自動化」と言われます。レベル1で出てきた加減速、操舵の制御を両方搭載している場合はこのレベルです。条件さえ合えば、車線を維持しながら前方車両を追走、これが自動で行えます。運転手の操作なしに運転できるので、ハンズオフ運転とも呼ばれます。

人間でいえば物心がついて大人の後をついていけるようになった頃だといえます。

レベル3

「条件付き運転自動化」と呼ばれます。特定条件下で運転を完全に自動化してくれます。前方車両の追走だけでなく、バックに追い越しなんでもござれです。ただし、自動運転の継続が困難な状況では運転手が運転を引継ぎましょう。運転中に目を離すことができるのでアイズオフ運転とも呼ばれます。これは自動運転してますねぇ。

ついに自分で遊べるようになってくれました。目を離しても大丈夫そうですが何かあっては大変なので常に子供の動向は意識しておきましょう。

レベル4

「高度運転自動化」と呼ばれます。特定領域下での運転の自動化、さらに継続が困難な場合も応対を行ってくれます。このレベルまでくると、ついに運転手がいなくても運転が可能になります!!もちろん、運転可能な領域は限られるのでどうやって、その領域を広げるかを考えていくことが課題であるといえそうですね。このレベルはブレインオフとも呼ばれます。

大きくなって自立性が芽生え始めるタイミングでしょうか?中学校、高校と、どんどん移動範囲が広くなっても自分で考えて行動できる頃でしょう。成長を感じますね。

レベル5

「完全運転自動化」と呼ばれます。条件なし!領域制限なし!!どこでもどんな場所でも完璧に運転をこなしてくれます。まさに近未来。

幼かった赤ちゃんも気づけば立派な社会人ですね、何も心配はいらないし、むしろ私たちが助けられる側ですね。

ちなみに、現在レベル4の技術が商用化のために実証実験を重ねられていて、レベル2レベル3の技術は量産化や実用化が進んでいます。こう見入ると私たちがレベル5の自動車に乗る日も案外近いのかもしれませんね。

研究との比較

いかがでした?自動運転がどういうものなのか、その理解に少しでも役に立てたのならと思います。

では結局私の研究は自動運転(EyeSight)と比べていったいどう違うのか、どんなメリットがあったのか、という話です。結論から言うとそもそも比べる対象は自動運転技術ではない!です。テーマを思い出してほしいのですが

「画像処理による対抗車両の検知」

この対抗車両の検知というのはそもそも自動運転技術じゃないんですね。(あえて言うならレベル0でしょうか)もちろん、自動運転をするうえで対向車の情報は扱うので無関係ではないですが…。

あくまでも私の研究では自動運転や運転支援で扱う情報の取得をもっと良いものにしよう!というのが目的だったんです。自動運転について少し理解が深まっているならば、似てるけど違うことをやってたんだなというのが分かっていただけてると思います!

最後に

もしかしたら自分も自動運転に向けての開発をしてみたい!と思われた熱心なエンジニアの方がいらっしゃるかもしれませんので私が研究でどんなことをやっていたか少しだけ紹介したいと思います。

再三出てきたEyeSightしかり多機能、高性能なものはどうしても高価だったり搭載している自動車が限られたりしてしまします。そこで、いまや多くの人が使用している(久しぶりに実家に帰ったらうちの車にもついてました。)ドライブレコーダーの映像をもとに画像処理を使って対向車の動きを取得しよう!そうすれば自動運転を搭載するためのハードルが下がるよね、と考えたわけです。しかし、デバイスを身近なものにする(性能を落とす。)ためには処理を軽くする必要がありますよね。そこで、事前にドライブレコーダーの映像を対向車周辺に削っちゃおう!そうすれば削れた分だけ処理は軽くなるじゃん!という考えのもと研究をしていました。

具体的にはオプティカルフローの前にカルマンフィルタを使ってその前に外乱を処理して…みたいな話になるのですが、そういった話は機会やご要望があればチャレンジしたいと思います。

と、いった感じでこれからも精進してまいりますのでよろしくお願いします。

azblob://2024/04/08/eyecatch/2024-04-04-yellow-apron-000.jpg
2024/04/15
About FIXER