/home/xs010557/digital-madoguchi.site/public_html/test/wp-content/themes/zox-news/amp-single.php on line 77

Warning: Trying to access array offset on value of type bool in /home/xs010557/digital-madoguchi.site/public_html/test/wp-content/themes/zox-news/amp-single.php on line 77
" width="36" height="36">

AI(人工知能)ニュース

軍用ロボット、民間人事故で責任問われやすく – エセックス大学が新研究発表

エセックス大学の研究によると、高度な軍用ロボットは民間人の死亡事故で従来の軍事機械より責任を問われやすいです。Dr. Rael Dawtryが主導し、ロボットの自律性と代理性が人々の責任認識に影響することを示しました。この研究は、ロボット技術の進化が法律家やポリシー作りに与える影響を探り、ロボットやAIの社会的受容性についての洞察を提供します。【用語解説とAIによる専門的コメントつき】

Published

on

エセックス大学の新しい研究によると、高度な軍用ロボットは、民間人の死亡事故において、従来の軍事機械よりも責任を問われやすいことが明らかになりました。この研究は、同一の事故において、高技術のロボットがより重大な責任を負うとされることを示しています。心理学部のDr. Rael Dawtryが主導したこの研究は、自律性と代理性の影響を強調し、ロボットがより進化した方法で記述されると、人々がロボットをより責任あるものと認識することを示しました。

この研究は、技術の進歩に伴い、法律家に影響を与えることを目指しています。Dr. Dawtryは、「ロボットがより洗練され、人間の介入なしに幅広いタスクを実行するようになるにつれて、自動運転やロボットの軍事利用など、人々の安全にリスクをもたらすタスクが増えています。これは、自律ロボットによって人々が害を受けた場合に、責任がどのように、そしてどこに割り当てられるかについての疑問を提起します」と述べています。

研究の一環として、Dr. Dawtryは400人以上の参加者に異なるシナリオを提示しました。そのうちの一つでは、武装したヒューマノイドロボットがテロ組織の襲撃中に、偶発的に機関銃が発射され、民間人の少女が死亡した事件について、参加者がロボットの責任をどう判断するかを評価しました。結果として、同じ結果にもかかわらず、ロボットがより洗練された用語で記述された場合、参加者はロボットをより責任あるものとして非難しました。また、単に「自律ロボット」というラベルを様々な装置に付けるだけで、それらが「機械」と呼ばれる場合と比較して、人々がそれらを責任あるものとして認識することが示されました。

Dr. Dawtryは、「ロボットの自律性がどのように認識され、結果としてロボットがどの程度非難されるかは、非常に微妙な方法で、それらがどのように記述されるかに影響されることがわかりました」と付け加えています。この研究は、「The Journal of Experimental Social Psychology」に掲載されました。

【ニュース解説】

エセックス大学の新しい研究によると、高度な軍用ロボットは、民間人の死亡事故において、従来の軍事機械よりも責任を問われやすいことが明らかになりました。この研究は、同一の事故において、高技術のロボットがより重大な責任を負うとされることを示しています。心理学部のDr. Rael Dawtryが主導したこの研究は、自律性と代理性の影響を強調し、ロボットがより進化した方法で記述されると、人々がロボットをより責任あるものと認識することを示しました。

この研究は、技術の進歩に伴い、法律家に影響を与えることを目指しています。Dr. Dawtryは、「ロボットがより洗練され、人間の介入なしに幅広いタスクを実行するようになるにつれて、自動運転やロボットの軍事利用など、人々の安全にリスクをもたらすタスクが増えています。これは、自律ロボットによって人々が害を受けた場合に、責任がどのように、そしてどこに割り当てられるかについての疑問を提起します」と述べています。

研究の一環として、Dr. Dawtryは400人以上の参加者に異なるシナリオを提示しました。そのうちの一つでは、武装したヒューマノイドロボットがテロ組織の襲撃中に、偶発的に機関銃が発射され、民間人の少女が死亡した事件について、参加者がロボットの責任をどう判断するかを評価しました。結果として、同じ結果にもかかわらず、ロボットがより洗練された用語で記述された場合、参加者はロボットをより責任あるものとして非難しました。また、単に「自律ロボット」というラベルを様々な装置に付けるだけで、それらが「機械」と呼ばれる場合と比較して、人々がそれらを責任あるものとして認識することが示されました。

Dr. Dawtryは、「ロボットの自律性がどのように認識され、結果としてロボットがどの程度非難されるかは、非常に微妙な方法で、それらがどのように記述されるかに影響されることがわかりました」と付け加えています。この研究は、「The Journal of Experimental Social Psychology」に掲載されました。

この研究の意義は、ロボット技術の進化に伴い、社会がこれらの技術をどのように受け入れ、理解し、責任を割り当てるかについての重要な洞察を提供することにあります。特に、自律性が高いロボットやAIが引き起こす事故や問題に対して、人間がどのように反応し、責任をどのように考えるかについての理解を深めることができます。これは、将来の法制度やポリシー作りにおいて、ロボットやAIの役割と責任に関するガイドラインを設定する上で非常に重要です。

また、この研究は、ロボットやAIの設計者や開発者にとっても重要な示唆を与えます。ロボットがどのように認識され、その行動がどのように評価されるかは、その記述やラベリングに大きく影響されることが示されています。これは、ロボットやAIの社会的受容性を高めるために、そのコミュニケーションやインターフェースの設計において、より慎重なアプローチが必要であることを意味しています。

from Advanced army robots more likely to be blamed for deaths.

Trending

モバイルバージョンを終了