タカタ問題を考える
といいつつ、別にタカタの話しを本格的にするわけではありません。そんなに細かくしらないので、それは他のきちんとした記事をご参照ください。
今回の問題の本質には危険性を知りつつも隠蔽していた、事故後の対応がよくなかった、等々ありますが言い方は悪いですがそれほど膨大な数の被害が出たわけではないのに破綻に至ってしまったことが何より衝撃でした。(もちろん死者が少なからずでているので重大ではありますが)
これが何が問題かというと、今後の自動運転社会の実現が難しくなるのではないかという懸念です。
要するに、自動運転中に事故が起きた場合に、AIを開発した会社が丸かぶりとなると、どこもそんなことはやりたがらない状況になってしまうのではないかということです。
人間より遥かにミスが少なかったとしてもその少数のミスが会社にとって命とりになる。やはり法整備は大変かなぁと。