【海外ITニュース速報】ロボットは人間の指示により超えてはならない一線を越えた

【海外ITニュース速報】ロボットは人間の指示により超えてはならない一線を越えた

This robot crossed a line it shouldn’t have because humans told it to

(このロボットは人間の指示により超えてはならない一線を越えた)

要約(英語):

video of a self-driving robot crossing yellow caution tape and rolling through a crime scene in Los Angeles has gone viral. The bot was spotted hovering on the street corner until someone lifted the caution tape, allowing it to continue on its way through the crime scene. The human operator took over when bystanders raised the caution tape and decided to proceed. The robot wouldn’t have crossed on its own, said Serve Robotics CEO Ali Kashani

要約(日本語):

イエロー警告テープを横切ってロサンゼルスの犯罪現場を転がす自動運転ロボットのビデオはバイラルになりました。ボットは、誰かが注意テープを持ち上げるまで路上角にホバリングしているのを発見され、犯罪現場を通り抜ける途中で続けることができました。傍観者が注意テープを上げて進めることを決めたとき、人間のオペレーターが引き継ぎました。ロボットはそれ自体で交差していなかっただろう、とサーブロボットのCEOアリ・カシャニは言った

本文

Video of a sidewalk delivery robot crossing yellow caution tape and rolling through a crime scene in Los Angeles went viral this week, amassing more than 650,000 views on Twitter and sparking debate about whether the technology is ready for prime time.

歩道配達ロボットのビデオは、黄色の注意テープを横切り、ロサンゼルスの犯罪現場を転がして今週広まり、Twitterで650,000以上の視聴を蓄積し、テクノロジーがプライムタイムの準備ができているかどうかについての議論を引き起こしました。

It turns out the robot’s error, at least in this case, was caused by humans.

少なくともこの場合、ロボットのエラーは人間によって引き起こされたことが判明しました。

The video of the event was taken and posted on Twitter by William Gude, the owner of Film the Police LA, an LA-based police watchdog account. Gude was in the area of a suspected school shooting at Hollywood High School at around 10 a.m. when he captured on video the bot as it hovered on the street corner, looking confused, until someone lifted the tape, allowing the bot to continue on its way through the crime scene.

イベントのビデオは、LAを拠点とする警察のウォッチドッグアカウントであるFilm Police LAのオーナーであるWilliam GudeによってTwitterに撮影され、投稿されました。グードは午前10時頃にハリウッド高校で射撃された容疑者のエリアにいました。彼が路上角にホバリングしたときにボットをビデオで撮影し、混乱しているように見え、誰かがテープを持ち上げて、ボットを続けることができるようになりました犯罪現場を通して。

A food delivery robot forces it’s way across a police crime scene.

フードデリバリーロボットは、警察の犯罪現場を越えて強制します

Uber spinout Serve Robotics told TechCrunch that the robot’s self-driving system didn’t decide to cross into the crime scene. It was the choice of a human operator who was remotely operating the bot.

Uber Spinout Serv RoboticsはTechCrunchに、ロボットの自動運転システムは犯罪現場に侵入することを決定しなかったと語った。ボットをリモートで操作しているのは、人間のオペレーターの選択でした。

The company’s delivery robots have so-called Level 4 autonomy, which means they can drive themselves under certain conditions without needing a human to take over. Serve has been piloting its robots with Uber Eats in the area since May.

同社の配送ロボットには、レベル4の自律性がいわゆる自律性があります。つまり、人間が引き継ぐことなく特定の条件下で自分自身を運転することができます。サーブは、5月以来、この地域でUber Eatsでロボットを操縦しています。

Serve Robotics has a policy that requires a human operator to remotely monitor and assist its bot at every intersection. The human operator will also remotely take control if the bot encounters an obstacle such as a construction zone or a fallen tree and cannot figure out how navigate around it within 30 seconds.

サーブロボットには、人間のオペレーターがあらゆる交差点でボットをリモートで監視および支援する必要があるポリシーがあります。また、ボットが建設ゾーンや倒れた木などの障害に遭遇し、30秒以内にどのようにナビゲートするかを理解できない場合、人間のオペレーターはまた、リモートでコントロールを取ります。

In this case, the bot, which had just finished a delivery, approached the intersection and a human operator took over, per the company’s internal operating policy. Initially, the human operator paused at the yellow caution tape. But when bystanders raised the tape and apparently “waved it through,” the human operator decided to proceed, Serve Robotics CEO Ali Kashani told TechCrunch.

この場合、配達を終えたばかりのボットは、会社の内部運営方針に従って、交差点に近づき、人間のオペレーターが引き継いだ。当初、人間のオペレーターは黄色の注意テープで一時停止しました。しかし、傍観者がテープを上げて「それを振り回した」と思われるとき、人間のオペレーターは進むことを決めたとロボット工学のCEOであるアリ・カシャニはTechCrunchに語った。

“The robot wouldn’t have ever crossed (on its own),” Kashani said. “Just there’s a lot of systems to ensure it would never cross until a human gives that go ahead.”

「ロボットは(それ自体で)渡ったことはなかっただろう」とカシャニは言った。「人間が先に進むまで、それが交差しないようにするための多くのシステムがあります。」

The judgment error here is that someone decided to actually keep crossing, he added.

ここでの判断誤差は、誰かが実際に交差し続けることを決めたということです、と彼は付け加えました。

Regardless of the reason, Kashani said that it should not have happened. Serve has pulled data from the incident and is working on a new set of protocols for the human and the AI to prevent this in the future, he added.

理由に関係なく、カシャニはそれが起こるべきではないと言った。サーブはインシデントからデータを引き出し、将来これを防ぐために、人間とAIの新しい一連のプロトコルに取り組んでいると彼は付け加えた。

A few obvious steps will be to ensure employees follow the standard operating procedure (or SOP), which includes proper training and developing new rules for what to do if an individual tries to wave the robot through a barricade.

いくつかの明白な手順は、従業員が適切なトレーニング(またはSOP)に従うことを保証することです。これには、適切なトレーニングが含まれ、個人がバリケードを介してロボットを振り込もうとする場合の新しいルールの開発が含まれます。

But Kashani said there are also ways to use software to help avoid this from happening again.

しかし、カシャニは、これが再び起こるのを防ぐためにソフトウェアを使用する方法もあると言いました。

Software can be used to help people make better decisions or to avoid an area altogether, he said. For instance, the company can work with local law enforcement to send up-to-date information to a robot about police incidents so it can route around those areas. Another option is to give the software the ability to identify law enforcement and then alert the human decision makers and remind them of the local laws.

ソフトウェアは、人々がより良い決定を下すのを助けるために、またはエリアを完全に回避するために使用できると彼は言った。たとえば、同社は地元の法執行機関と協力して、警察の事件について最新情報をロボットに送信して、それらの地域を巡ることができます。別の選択肢は、ソフトウェアに法執行機関を特定し、人間の意思決定者に警告し、地方の法律を思い出させることができることです。

These lessons will be critical as the robots progress and expand their operational domains.

これらのレッスンは、ロボットが進行し、運用ドメインを拡大するにつれて重要になります。

“The funny thing is that the robot did the right thing; it stopped,” Kashani said. “So this really goes back to giving people enough context to make good decisions until we are confident enough that we don’t need people to make those decisions.”

「面白いことは、ロボットが正しいことをしたことです。カシャニは言った。「だから、これは本当に人々に良い決定を下すのに十分なコンテキストを与えることに戻ることに戻ります。

The Serve Robotics bots haven’t reached that point yet. However, Kashani told TechCrunch that the robots are becoming more independent and are typically operating on their own, with two exceptions: intersections and blockades of some kind.

サーブロボットボットはまだそのポイントに到達していません。しかし、KashaniはTechCrunchに、ロボットはより独立しており、通常は独自に動作していると語っています。

The scenario that unfolded this week runs contrary to how many people view AI, Kashani said.

今週展開されたシナリオは、AIを見ている人の数に反しています、とカシャニは言いました。

“I think the narrative in general is basically people are really great at edge cases and then AI makes mistakes, or is not ready perhaps for the real world,” Kashani said. “Funnily enough, we are learning kind of the opposite, which is, we find that people make a lot of mistakes, and we need to rely more on AI.”

「一般的に物語は基本的に人々はエッジケースで本当に優れていると思います。そして、AIは間違いを犯します。「面白いことに、私たちは反対のようなことを学んでいます。つまり、人々は多くの間違いを犯し、AIにもっと頼る必要があることがわかります。」

元記事
https://techcrunch.com/2022/09/16/serve-robotics-sidewalk-robot-crime-scene/

Newsカテゴリの最新記事