多分確実に今の人類は終わるよな?
仮に『仮に人類に危害を与えない』って基本的なプログラムがあったとしても人類を超えた知能のAIは独自の解釈を生み出して書き換えるだろうし。

仮にAIが地球上をより良くするために他の生態系や環境に悪影響を与えるモノを排除しようとした時に一番最初に抹消すべきなのは多分人類だと思うし。

どの生物よりも非力で真っ先に絶滅するハズだった俺達がこれだけ繁栄したのは他の生物が持たない唯一最強の武器である知能のおかげだろ?
今のAIに対する取り組みはその最強の武器を自ら放棄してるのと変わらない気がする…
なんせ人類より優れた知能をもった存在を作りだしちゃったんだからね。

進化して人間を超えた知能を持ちロボットの様な固体が増えたらもう人間が存在する必要性は全くないし暴走したら一瞬で淘汰されるよな…

論理的思考や人類を尊重したプログラムでどれだけ縛りつけても進化したAIがどれだけ人類に都合良く動くか解らんし、人類より上の知能に大してどこまで制御出来るか解らんし。
きっと進化のスピードも半端ないだろうし人類の予測不能なレベルになるのもすぐだろ。

SF映画の見すぎじゃないが行きすぎたAIへの取り組みはマジヤバい気がするけどな…。
AIのリスク管理とか万一の対策とか現状どこまで考えてるんだろうね?

50年後に人類がまだ地球上を支配出来ているか見物だな。