>>193
快・不快のプログラミングって何にするんだろう。

現在の機械学習でも、
正解を選んだら報酬を与えるってやってるけど、
それが快・不快じゃないのかな。
それ以上の意味での快・不快ってなんだろう。

機械が「感情(心・意識・クオリア)を持つ」みたいな話だとしたら、ウサン臭い。
たとえ機械に感情が産まれても哲学的ゾンビと一緒で人間には判断つかないだろうし。