未来に関わるリスクの把握と、それを議論しましょう。

人類滅亡レベルのリスクとは・・・
地球全体規模(Global)で、人類の存続に関わる深刻なリスク(Profound)のこと。
※ニック・ボストロム氏のリスクのカテゴリーの定義を参考

人類滅亡レベルのリスクの例
・スーパーインテリジェンス(ASI)
→超知能の暴走
・グレイ・グー(Grey goo)
→ナノマシンの無限増殖
・異常気象
→限定的な地域の温暖化・寒冷化、洪水(地震もあり)
・核兵器
などなど