>>135
>世界基準では科学技術の発展のためのリスクは許容される

馬鹿だな、リスクもヘッタクレもないじゃん。
とりあえず事故件数・死亡者数が今現在の1/10になれば御の字だろ。
コンピュータ・AI導入したら事故件数・死亡者数がゼロにならないといけないのか?

コンピュータはミスをしないと教わってきたからそういう考え方になるのかな???