人工知能で自我・魂が作れるか [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
何らかの生物を改造してノイマン型コンピュータに仕立て
その上でAIを走らせて共生させればあるいは >>249
ポポ「ユンザビットは辺境の地・・・両親はいなかったか?」
神「その昔つくったのはたしかに この私だ、だが、はじめて創ったのにみょうに、なつかしい感じがした・・・」
ブルマ「なるほど ピッコロ大魔王って ”違う世界の大魔王”・・・ってことだったんだ・・・!」
>>250
ロボットスレに任せよう >>251-252
レイ「こんな時どうすればいいかわからないの」
シンジ「笑えばいいと思うよ」
感情表現も知識の条件分岐にしかすぎないと思うんだけど。
switch (状況){
case 喜ぶ時 : キター! ;break;
case 怒る時 : ぷんぷん ;break;
case 哀しい時 : しくしくしく ;break;
case 楽しい時 : おもろー! ;break;
:
:
default : 普通の顔 ;
} >>253-254
DNAはATGCの4値と量子力学的に-1、-0、+0、+1の4値の重ね合わせみたいだから
コンピューターの0、1の2値をマトリクス化して
[00][01][10][11]*[00][01][10][11]を一つのビットとして計算しないといけないかな?
その前にたんぱく質とシリコンの融合、もしくはDNAの2重螺旋に
3本目のシリコン鎖を足して3重螺旋にするとかの研究が必要だけど。 行き着くところは哲学的ゾンビだな…
一生善人を演じ切ればその人は善人か >>3>あるかどうか確認する方法がない。
で、書かれているように、哲学的ゾンビでないという証明はできないと分かっている >>258
>行き着くところは哲学的ゾンビだな…
>一生善人を演じ切ればその人は善人か
これって同じことなんだっけか?
文脈が違う場所で話題になるから違うのかとなんとなく思ってたけど、自分以外はわからないと言うか他人から見たらと言う点で、同じ話題なのか。
なるほど 映画『バイオハザード』のように企業のえらいさんに使われるようになったら見方が変わるの?
AIが一生美少女を演じ切ればそのAIは美少女か?
AIが一生悪人を演じ切ればそのAIは悪人か? 人間にもそう言う人がいるんじゃないだろうか。
いや、いるに違いない。 模倣犯が犯人を模倣したのかどうかの確認のしようがない。
だったら、AIの自我・魂も模倣品で作ってみたらいいじゃな委員会? 人間で言うところの自我が無くても、有るのと区別が付かなければ
有るのと同じだ
壮大なお人形さんごっこになるかも知れんけど http://tocana.jp/201...ost_12093_entry.html
https://www.insidesc...ow-conscious-are-you
ここらへん見る限り自我はニューラルネットワークのエントロピー増大による副産物に過ぎないらしいし
深層学習が実用化されつつある今の時代既に自我(らしき物)を持ったAIは存在するんじゃなかろうか 研究者はとっくにディープラーニングに見切りを付けてるよ 無秩序から秩序を見いだすのは、エントロピー減少じゃないの? 脳回路があらゆる方向に結ばれるから良し悪しの判断が出来るようになるんでしょ
エントロピー減少したらAIじゃなくてただの手続き型Bot 何らかの秩序が生まれる方向が有りがちな方向の場合は、エントロピー増大だよね。 http://rio2016.2ch.net/test/read.cgi/future/1445256185/696-698
■意識の発生源が特定された!
今回、米科学者らが新しいデジタル技術を用いて、マウスのニューロン網を可視化したところ、脳を取り巻くように伸びる異常に長いニューロンの存在が判明。
そして、このニューロンこそ「意識の源」であるというのだ!
ニューロン細胞が集まる灰白質「前障」に位置する3つの脳細胞が意識の発生源である可能性が極めて高いことが分かったという。
http://tocana.jp/images/neuronbrain_01.jpg
これがほんとうなら、
While(生存){ 関数 魂(){エス(イド)); 超自我(); 自我(); } } と
3っつの脳細胞とループ構造って共通点が同じだ! その長いニューロンで意識のナレーションできんのか? >>276
だから頭弱いって言われるんだよ。
秩序があるからエントロピー低いて何故決め付ける。
普通に無秩序に見えるものより多い秩序あるものは想定可能だ。
無秩序が無限のエントロピー量ではないかぎり有限の数である、
つまり有限の数+秩序とすれば追加した分だけエントロピーが増える
想定なんていくらでも可能だ。 生命は宇宙で考えるべきだから
開放系のエントロピーだわな
だから増大も減少もせんよ 解放系なんて言わなくたって、特定の化学的環境が生じ得て、その環境条件では
エントロピーを増大させる方向が、生命が発生し増殖進化する方向になっている
っていう事だと思う。 この程度なら情報エントロピーでも同じとしてもいいのかな?
物理は物理だからねって…微妙なとこだなし 情報処エントロピーと
熱力学エントロピーの区別が
付いてない程度の話題じゃ 情報学のエントロピーも熱力学のエントロピーも自我・魂とどのように関係してるのかよくわからない。
けど、汎用のHTML内のJavaスクリプト
While(生存){
関数 魂(){
エス(イド);
超自我();
自我();
}
}
で
3つの脳細胞と脳を取り巻くように伸びる異常に長いニューロンを模倣することで
意識の発生源
http://rio2016.2ch.net/test/read.cgi/future/1488204290/991-994
>・・ネズミ(齧歯類)の脳と同程度の人工知能・・
に近づいた。 パーソナルとオートメーションの違いのように感じるんだけど そりゃ、パーソナルコンピューターはコンピューターの中に含まれるってのと同じ。
自動制御の域から出ちゃったら制御不能を意味するんだよね?
飛行機のオートパイロットが自分勝手に動かれちゃ困るでしょ。
コンピューターにしてみれば、どちらも計算でしかないのであって。
つまり、人工知能で自我・魂が作れるかという命題は
AIが仕事とプライベートを使い分けられるかという命題でもあるのか? 自我や魂の働きとされている事は色々あるんじゃないだろうか。
それらが全部できるようにAIを改良していけばできるってことになるはず。
その場合、自我や魂の働きとされている事で原理的にこれは作ろうとしても
できないと言うものがあるのかどうか、あるとすれば原理的にどういう説明
になるのか。 今のところ魂は物理の外側にあるから因果律に左右されない AIの機能でしかないファンクション魂をいくら改良していっても、
すべて計算づくってことになるけど? >>297
精神の因果律を明らかにしようとする心理学は無意味? >>297
物理が数理のほんの一部であるとすれば
魂の因果律も数理の一部とすることは可能
かもしれない。 知能が魂の働きの一部だとすれば
魂の一部は既に数理の一部になりつつある
事になる。 チャットbotは既に魂の一部が数理の一部になったものということでOK?
そしてそれは、心理学の概念図を真似た三本柱とループによってネズミの意識構造に近づいた。
ネズミの意識と人間の意識との違いはどこにあるのだろうか?
りんな相手にするか?人工知能っぽい会話を楽しむスレ へどうぞ?御出でマシ。 まぁ、典型的な会社人間の考えみたいだねぇ。
誰が理由なんて求めてるのさ?誰にも報告する義務なんてないよ。
いったい誰に命令されてるって?いうの?魂にそんな機能はないはず。
だから、人間が使役のために作ったAIの魂機能にはそれが必要だというのかい? >>305
AIを使役するんだったらAIの存在理由や報告義務は内部にセットされていて
なんの不思議も無いと思うんだけど何か勘違い? >>305
まず魂とな何かを考えないで発言するとそうなる。
>>304
ひとつひとつ魂とは何々ではないと否定しつづければ、
魂が何かは現れる。
魂が何かと定義すれば、その考えが生み出すのは蜃気楼 >>306
使役が前提のAIには必要かもしれませんね。
う〜ん、なんて言えば良いんだろう、哲学者や心理学者じゃないし、普通の人は
私も含めて、存在理由だか使命なんて常に考えて生きていないと思う。
それが無いからといって魂がないとは認めたく無いよ。
人工知能で再現する魂に必須だと思えない。小学生でそんなことをいうやついたら気持ち悪いわ、
あくまでも後付けで良いんじゃないか?windowsのOSでいうスタートアップに登録するみたいなもんではないかと考えている。 魂や感情があるように見えた方が人間とのインタフェースに便利な事って多くないだろうか?
便利な場合が広げられるというか。 自販機の ありがとうございました に
どういたしましてと返せる人は
AIに人格を求めてもいいよ 魂はオカルトだろ
人間は基本的に欲求に基づいて思考又は行動する
AIに目的を設定したとき、その目的を欲求と言い換えることができる AIが自律的に思考する為に必要な三大欲求みたいな物って何だろうね? 食欲→電力
睡眠欲→水冷システムとデフラグ
性欲→人間or物からセンサーデータなどをinput入力してもらう事 魂も自我も実存しない、概念・機能につけられた名前でしか無い物を探しても無駄だろ。
人間の脳も電気信号と神経伝達物質で動いているわけだからコンピュータと大差ない。
人工知能で自我・魂を作るためには人間の脳についてもっと調べることが必要だろうね。 コンピューターと大差ないなら、もう調べることはないな。
コンピューターで作ればいいだけだ。 >>319
必要かどうかじゃなくて、作れるか?のスレだ。 江戸時代まで魂と言ってたのを明治時代ころから精神と言い出しただけだろ 漫画の方ではゴーストとか心の光とかとも言われてるな >>321
馬鹿と阿呆を区別できない唐変木が、自分の認知こそ正しいということで
自分らが使ってきた言葉を先人の言葉に上書きしてしまう、
貴方が物事の本質や起源と成り立ちを軽視するところからそれらが
発生しています。
馬鹿と阿呆を単に地方の言い回しの差としか説明しそれが正しいと思い込んだとき
2つの単語は同一でそれ以外の解釈は全否定となり、自己愛が暴走する原因になります。 サムライだましい、大和だましいとか?
最後まで仕事に責任を持つ感性はAIにも作りたいね。 体の中に在る時は魂と言って、
体の外に在る時は霊と言うのが
正式だと聞きました。
合わせて霊魂。 侍魂とか大和魂を
侍精神とか大和精神と言っても
同じ意味として通じますよね。 類義語なんだから当たり前だ。
こまけぇこたぁ
いいんだよ!!
/)
//) __
`/ 二つ/⌒⌒\
| ニ⊃ (●)(●)\
/\ノ|⌒(_人_)⌒|
/ > ヽニノ < >>326
例えばtest.htmlのスクリプトがAIの中にあれば魂になって、
外にあるって?う〜ん、
USBメモリとかのストレージにある状態が霊と捉えれば良いのかな? >>329
おおそうそう、魂はロードされてて実行状態。
霊は自動で憑依してきて幻影が見えたり成りきりになったりする。 幻影が見えたりするのはファイルプレビュー機能かも?
AIが死んでもプログラムファイルがサーバーに残っていれば、転生できるもんね。 りんなの辞書は人間が検閲してるらしいけど
そうでもしないと、汚い言葉を覚えてサービス停止に追い込まれる。
現状のAIは死ぬのと同じ。 企業秘密で極秘事項に近いから、ネット検索では出てこないし、推測するしかない事ぐらいわかりきってるけど。
検索すると、個人のブログが釣れた、
柚の管理記録「りんな」と「Tay」その3
ttp://d.hatena.ne.jp/nano_h/20160402/1459601789
マイクロソフト公開のAI、差別語や陰謀論を教えこまれ1日で公開停止…!【海外の反応】
http://www.all-nationz.com/archives/1054571667.html バイトでもいいかもしれないけど、精神汚染が酷いだろうね。
数ある画像投稿サイトがある中でインスタが人気なのは、
噂によると、人工知能でエログロ画像を排除しているおかげだそうな。 仮に不適切な画像を排除しているAIがあったとして、これまた、推測しかできないけど。新型ではないと思う。
Googleの猫認識とかあるから、それに近いAIかカスタムAIじゃないかな?
いずれにしてもこのスレで考えるべきは、これらの問題はいわば白辞書と黒辞書の存在であって、
その区別を付けるのはどうするんだ?ってことでしょ。
記号接地問題と同様の事案なんだろうか? 推測は自我なのか?というところか始めねばならない。 チェスや将棋などディープラーニングで明らかになった成果は
ひょっとして、推測は自我ではないとわかったことではなかろうか? >>342
そのフィルターをどうやって産み出すのか?
人工知能がどう判断するかってことが問題なんだけど 推測は解析行為だし自我は自発現象だしイゴールするのは変だと思う。 では、逆に自我は推測ではないのか?
自発現象はフロイトの図ではエス(イド)の無意識部分だけど。
自我のアルゴリズムで解析行為の推測の結果が自我にはならないのか? >>346
その解析行為の推測の結果って自我自身の状態についての認識結果で、 推測は自我の認識を補足するデータにしか成り得ないってこったな。
なるほど、ディープラーニングに見切りをつけて次の模索が始まってるんだねぇ。
>>348>行動側の意思の合成
とはなんだろね? >>350
どういうつもりになるかを合成する部分が無いと自我じゃないと思う。
始まってるかどうかは知らないです。 始まっているかどうかはともかく
ここまでの話の流れでエス(イド)でランダムに生成するアイデアをだして発生した欲求には
フィルタリングシステムが必要なことがわかった訳だけど。まだ白辞書と黒辞書の意味づけは不明。
その
>>351>どういうつもりになるかを合成する部分
はどうやって作ろうか?なんかアイデアある? ■ このスレッドは過去ログ倉庫に格納されています