人工知能で自我・魂は作れるか?その3
■ このスレッドは過去ログ倉庫に格納されています
https://ja.m.wikipedia.org/wiki/ フレーム問題 https://ja.m.wikipedia.org/wiki/%E3%83%95%E3%83%AC%E3%83%BC%E3%83%A0%E5%95%8F%E9%A1%8C フレーム問題が問題としているのは、考慮すべき空間が有限でない限り、 無限の可能性について考えざるを得ないという点である (ただし、空間が有限でも、考慮すべき要素の組み合わせが爆発的に増加するので同じことである)。 自然界に発生した知性(人間の知性など)が、どのようにこのフレーム問題を解決しているかはまだ解明されていない。 人間は実際にはフレーム問題を解決できておらず、 フレーム問題にうまく対処しているかのように見えるだけだと唱える研究者もいる。 この場合、どのように振舞わせれば、そう見せかけられるのかが研究の主題となる。 このような、人工知能だけに限らず人間の知能にも起こり得るフレーム問題は、 ジョン・マッカーシーらの提案したフレーム問題と区別して一般化フレーム問題と呼ばれている。 フレーム問題は、知能を記号操作のルールに還元してトップ・ダウン式に定義することから生じると主張する研究者もいる。 そのような研究者は神経系を模倣したニューラルネットワークのような 記号操作的でない知能によってフレーム問題を解決できると考えている。 Prologなどの論理型プログラムにおいて、 否定(not)は、「知っていることだけが世界の全てである」とみなす、 「閉世界仮説」に従った動作をするのが普通である。 http://itest.5ch.net/rio2016/test/read.cgi/future/1538193488/583 >オーバーテクナナシー 2018/10/05 08:15:18 >フレーム問題って、言い換えれば「人間(あるいは機械)が >どれだけ上手く情報を取捨選択(注目と無視)出来るか」 >というものに過ぎない >つまり >「不必要と考えられるもの」 >「変わらないと考えられるもの」 >「無視しても問題の起こらないもの」 >にどれだけカテゴライズできるかが大切 土曜プレミアム・映画「ジャックと天空の巨人ワーナー・ブラザース 公開 アメリカ合衆国2013年3月1日 日本 2013年3月22日 」 放送日時 2018年10月06日(土曜日)21:00〜 映画の3DCGはレンダリング後に声のアフレコだけれども、 リアルタイムで仮想空間ヴァーチャルリアリティーで動き出すと、 それは自我・魂を持つといえるだろうか? ソードアートオンライン アリシゼーション マイクロチューブル 微小管 フラクトライト 量子の光 魂の元 ソウルトランスレーター ニーモニックビジュアル フラクトライトアクセラレーター アリスずアドベンチャーざアンダーグラウンド 眼差し(まなざし)光の軸アークライト クリプトン・フィーチャー(クリプトン構造体)10万3千冊 積層リカーシブ ニューロエボリューション 自我と魂の定義は辞書の定義ではだめなんだろうか。 作ったとしてもできたかどうかは辞書に書いてある意味に合っているかどうかで 評価すると思う。 以下gooの辞書の引用 --------------------------------------------------------------------------------------- 自我 1 自分。自己。 2 哲学で、知覚・思考・意志・行為などの自己同一的な主体として、他者や外界から区別して意識される自分。⇔非我。 3 ㋐心理学で、行動や意識の主体。自我意識。 ㋑精神分析で、イド・超自我を統制して現実への適応を行わせる精神の一側面。エゴ。 魂 1 こころ。精神。 「詩は我―を動せども」〈鴎外訳・即興詩人〉 2 人の肉体に宿る精気。たましい。霊魂。特に陽のたましいをいう。→魄 (はく) 「―は善所におもむけども、魄は、修羅道に残ってしばし苦しみを受くるなり」〈謡・朝長〉 精気 1 万物を生成するもとになるもの。万物の根源の気。「自然の精気」 2 人の生命を活動させるもとになる力。精力。「精気を取り戻す」 >>53 さようでよかれども、 "プログラムでどう具現化するのか?" というスレでありましょう。 >知覚・思考・意志・行為 の4つがどれも難しい。 知覚とはクオリアの問題と感情 思考とは記号接地問題と創発 意思というオペレーションの問題と統合情報理論 行為にはフレーム問題と善悪判断の問題 が依然として立ちはだかってる 東ロボに詳しい人教えてです。 国語、社会、理科の暗記ものは文字認識と検索で多少どうにかなるとしても、 物理、数学の計算問題は文字認識に加えて数式認識と数式の組み立てはどうやってるの? 連立方程式を補助線引くだとか記入式だととんでもなくハードルが高いように思うのですが? 汎用AIの話 ディープラーニングでやっとモノや音声を認識して それを単純な別のモジュールで処理できるようになったけど、 人間の扱う言葉の意味を理解するにはディープラーニングで認識した情報を意識のような更に単純なモジュールでない内部で仮想空間を作る必要があるという話があるみたいですね 今の大規模なシステムで数百のオブジェクトを認識できるとあるけど、 要するに認識できるインプット量が人間並みにないといけないと思うけど、あと10年くらいでディープラーニングでそんなに認識できるようになるのだろうか? それとも2025年にブレインイニシアチブで出た成果を元にディープラーニングに替わる新しいアーキテクチャを開発して、2029年に間に合うのだろうか? ディープラーニングは3,40年かかったらしいが 脳の細部のロジックはプログラムみたいにデジタルに全て置き換えられるとカーツワイルは言っているけど、ニューラルネットワークみたいに新たな数学的な概念に焼き直すのは時間かからないのかな これができれば汎用AIで自動化も加速するとは思うけど >>56 何度めかのAIブームが来て、そのうちまた暗黒時代がくるよってだけだろ 別に悲観してるわけじゃなくて。 今だって根本的には同じ技術をハードの力でごり押ししてるだけ それが証拠に質的変化があったのゲームだけ この秋、新たに発売されたnVidiaのGeForceRTでゲーム世界やCG業界がまったく新しく生まれ変わる。 数年前であればレイトレースは100万円台のワークステーションでたった1枚の静止画をレンダリングするのに1週間や数ヶ月掛かっていたが、 ようやく家庭のパソコンでリアルタイムレイトレースが出来るようになる。 1秒間に何本のRay(光線)が計算可能かという 10GRays/s(100億本毎秒) 指標が標準化する。 また、チューリングコアやテンソルコアも機械学習に革命をもたらす。 階層型のバウンディングボリューム「BVH(Bounding Volume Hierarchy)」 は、 計算が必要なものと必要でないものを階層的に判別していくので これが応用次第でフレーム問題における絞り込みに寄与するかもしれない。 HPC(high performance computing)向けのTESLAシリーズもtensorコアで飛躍。 https://news.mynavi.jp/article/gtcjapan2017_v100-1/ マイナビニュース 命令アーキテクチャを全面的に一新したVolta 2017年12月に開催されたGTC Japan 2017において、NVIDIAのシニアデベロッパーテクノロジーエンジニアである成瀬彰氏が、 「VOLTA ARCHITECTURE DEEP DIVE」と題する講演を行った。 https://news.mynavi.jp/photo/article/gtcjapan2017_v100-1/images/006l.jpg P100 GPUとV100 GPUの性能、諸元の比較。Tensorコアでのディープラーニング性能の改善が目立っている GeForceRTX2080が10万円くらいで TESLA V100が120万円くらい。 どっちも高いので手がでない。 人よ。言葉を正せよ。 世間の乱れは言葉の乱れが始まりなり。 日本の言葉は清らかで神の言葉に一番近きもの。 汚き言葉は人を傷つけ、心を傷つけ、魂までも傷つける。 今この時、言霊を正せよ。正しき言霊なれば、たとえそれが厳しきことであっても、その中に優しき響きあり。 人に汚き言葉浴びせるなかれ。 たとえ軽きつもりでも、汚き言葉浴びせるは、我気づかぬうちに人を傷つけ、邪気呼び寄せる。 今、早急に言霊ただし、清き美しき言霊使うべし。 >>58 レイトレーシングって、まだそんなに時間かかってたんだ 知らんやった >>61 興奮してちょい大袈裟だったので訂正する >58>数年前↓ >58>十数年前 日本HP、グラフィック用途のLinuxワークステーションを発表 2001年10月22日 http://ascii.jp/elem/000/000/326/326840/ hp Linux workstation x4000 Red Hat Linux 7.1 CPU……Xeon-2.0GHz×1 HDD……18GB メモリ……256MB グラフィックカード……ATI FireGL4 (2002年春以降NVIDIA Quadro2 Pro/MXRにも対応) 価格……103万8000円 Alias|Wavefront Maya 3.0 Avid Softimage|XSI 2.0 Nothing Real Shake >Linuxグラフィックワークステーションが可能になった大きな理由として、 >プロセッサ性能の向上のほかに、XFree86 4.0.x以降、OpenGLのハードウェアレンダリングが可能になったことが大きいという。 >それにより、Windowsワークステーションと遜色ない3Dグラフィック性能が得られるようになったという。 OpenGLのハードウェアレンダリングもまだ20年経ってない 具体的なレイトレースの時間短縮については調べられませんでしたが、同様な表現をされてる文章はいくつかありました。 http://www.mutyun.com/archives/47499.html >【激論】次世代機にレイトレースレンダリングは必要か?不要か? >レイトレースレンダリングというのは、光の反射まで計算に入れた物理的に完全なCGの表現で、 >これが可能になるとCGの表現は現実と寸分違わなくなるまさに究極の技術 >従来のラスタライズレンダリングは、レイトレーシングが出来ないために使われている擬似的なCG表現だったのである >レースゲーでよくある車に映り込む外の景色の表現は、実は外の景色が映ってるかのようにテクスチャを貼ってたりするだけなのだ >あまりに重い処理であるためにこれまでは映画製作の現場で数日かけて数十秒のカットシーンを作っていたが、 >今回NVIDIAが発表したRTX2080tiではリアルタイムで簡単なレイトレースレンダリングが可能になるという 米国が世界一強力なスパコンSummitを発表 | Data Center Cafe 2018年6月13日 DC CAFE 世界最速のスパコン”Summit”が誕生 – 毎分15000リットルの水で冷却 ピーク性能200ペタフロップスのSummit 4,608個のサーバーに9,216個のIBM Power9プロセッサと27,648個のNvidia Volta GPUを搭載しており、 それらをNvidiaの次世代NVLinkが相互接続しています。 ノードはMellanoxのdual-rail EDR InfiniBand networkによって接続されていて、相互に毎秒200ギガビットを伝達します。 この2億ドルのスパコンは、9,250平方フィート(859平方メートル)の空間に収容され、冷却を保つために毎分4,000ガロンの水を必要とします。 また長さ185マイル長の光ファイバーケーブルを擁しています。 海外の最新IT事情- データセンター、セキュリティ、クラウド | Data Center Cafe http://www.cafe-dc.com/other/201806-us-launches-worlds-most-powerful-supercomputer-summit-100245-article/ 「本日Summitというスパコンを発表したことで、科学的イノベーションおよび技術開発における米国のリーダーシップが示されました。 エネルギー研究、科学的発見、経済競争力、そして国家安全保障の分野において、重大な影響を与えることになるでしょう」と エネルギー省長官でP・ペリー氏が発表会で語りました。 「私はSummitのもつ可能性に本当にワクワクしています。なぜなら、Summitによって アメリカが2021年までにエクサスケールのスパコンを調達するという目標に一歩近づくからです。 科学者たちの広範囲にわたる新しい課題への取り組みをSummitは支援し、発見を早め、イノベーションを奨励し、 そして何よりも米国民の利益になります」 120万円くらいのVoltaを27,648個?それだけでも300億円ってスゲー 【SIGGRAPH 2018】本格リアルタイムレイトレースでゲーミング体験は変わるのか!? https://game.watch.impress.co.jp/docs/news/1138172.html Nvidia“Turing”搭載プロ向けGPU製品「Quadro RTX」を発表 谷川ハジメ(トリニティゲームスタジオ)2018年8月15日 20:36 >コンピュータグラフィックスの学会に端を発する世界最大のCGの祭典「SIGGRAPH 2018」8月12日〜16日開催 >会場:Vancouver Convention Centre >次世代アーキテクチャ“Turing”、しかも世界初のリアルタイムレイトレーシングGPU 「Quadro RTX」は演算性能、搭載メモリの異なる3製品がラインナップ 「RTX5000」 2,300ドル、 「RTX6000」 6,300ドル、 「RTX8000」10,000ドル、 https://game.watch.impress.co.jp/img/gmw/docs/1138/172/html/SIG2018NVIDIA_11_o.jpg.html “Turing”CUDAコア4,608基で16TFLOPS+16TIPS、 Tensorコア576基で125TFLOPS(FP16)/250TOPS(INT8)/500TOPS(INT4)の演算性能を持つほか、 新たに追加されたレイトレース用RTコアが10Gレイ/秒のレイトレース性能を実現している。 ANNOUNCING QUADRO WORLD'FIRST RAY TRACING GPU RTX Family Up to 10 Giga Rays/sec Up to 16 TFLOPS +16 TIPS Up to 500 Trillion Tensor Ops/sec Up to 100 GB/sec with NVLink >この「RTX 8000」を4基搭載するサーバ製品も合わせて発表されており、 >レイトレースでグローバルイルミネーション(GI)を行う最大96GBサイズまでのシーンなら、 >従来はレンダリングに数時間かかっていたものが、ものの数分で終了するという。 >ハリウッドプロダクションレベルの映像で“1日あたり7ショット”こなせるというが、 >そもそもシーンの条件によってレンダリング時間は大きく異なるほか、 >レイトレースで品質を上げる方向にも条件が変化するから、導入によってどの程度の高速化になるのか、ちょっと想像がつかない。 ようやく、ハリウッドレベルの96GBサイズで“1日あたり7ショット”なんですな。 Xilinx、CPU比で20倍/GPU比でも4倍高速なAI推論処理向けアクセラレータ https://pc.watch.impress.co.jp/img/pcw/docs/1146/317/html/alveo.jpg.html 佐藤 岳大2018年10月4日 15:17 データセンターおよびAI向けのアクセラレータカード「Alveo U200/U250」。8,995ドル。 機械学習のリアルタイム推論、ビデオプロセッシング、ゲノミクス、データ分析 をはじめとするデータセンターアプリケーション実行時に処理を高速化するためのアクセラレータ。 INT8の演算性能は、Alveo U200で18.6TOPS、Alveo U200で33.3TOPSを実現。 機械学習のリアルタイム推論において、Alveo U250のスループットはSkylake世代のXeon Platinumプロセッサの20倍、 NVIDIAのV100 GPUより4倍以上高速であるほか、データベース検索などのアプリケーションでは、CPU比で90倍高速であるとしている。 同社では同時に、業界初を謳う、ACAP(Adaptive Compute Acceleration Platform)の「Versal」も発表。 Versal ACAPでは、スカラープロセッシングエンジンと適応型ハードウェアエンジン、インテリジェントエンジン、 最先端メモリとインターフェイス技術を組み合わせることで、 あらゆるアプリケーションで強力なヘテロジニアスアクセラレーションの実現を謳う。 まずはAI推論処理向けの「Versal AIコアシリーズ」、 より汎用処理向けの「Versalプライムシリーズ」が、2019年後半より市場提供が予定されている。 >>66 >Nvidia Quadro RTX8000“Turing”/250TOPS(INT8)の演算性能 >>68 >Xilinx INT8の演算性能は、Alveo U200で18.6TOPS、Alveo U200で33.3TOPSを実現。 NVIDIAの“Volta”はINT32で14.90でINT8が無いにしても Alveo U200が TESLA V100 GPUより4倍以上高速ってのがよくわからん。 Quadro の8分の一だし。 >>69 INT32 vs INT8という単純な比較とか 調べたら違ってたかも アクセラレーターっていうのはGPUの固定的な機能はないから、ローレイテンシーで4倍早いらしい つまり、リヤルタイム機械学習でスループットがそれだけ優れているらしい リヤルタイムじゃないベンチ比較じゃ リアルタイム機械学習とは、ラベリングしやすい事例だけその場で学習して、その他は後回しにするという意味らしい クレジットカードの処理で、詐欺的取引があれば素早くラベリングしてそれを処理する これで人間により詐欺事案は数時間で処理できるように、後回しの通常取引データは数日後に処理する このようなリアルタイムの概念を機械学習で取り込んだものだと うまく想像できないが つまり、映像処理のようにデータをある程度まとめて並列的的に流すしかできないGPUに対して、アクセラレーターは映像処理にはない細かく保留したりコントロールできるように設定できるということでは 全てラベリングしたベンチマークは五分五分 リアルタイム機械では柔軟さにおいて、最終的に4倍も速く学習できましたということか 東京大学、機械学習を用いて0.5秒後の人間の動きをリアルタイムに推定する体動予測システム「Computational Foresight」を論文にて発表 https://shiropen.com/2017/11/17/29625 AIの模倣したジャンプの動きは、初速と方向をジャンプに勢いをつける動きとラベリングして予想したもの Xilinx AlveoはFPGAという分類で、ASICやCPU、GPUとは違い論理部分を細かく好きに更新、設定できる つまり、扱いは難しいけど学習に応じた最適なアクセラレーター・AIチップにカスタマイズできるということらしい AIチップの上級者向けの製品という認識でいいかも >>77 勉強になりました。ありがとうございます。 GPUが右脳的でFPGAって左脳的なのかな。 並列化アルゴリズムが違うのかも。 CUDAとOpenMPの違いかな? ゲーム脳だったらDirectXやPhysXで3DmarkやFF14ベンチとかあるんだから、 ビットコインのOpenCLでのマイニングのハッシュレートとか、 CineBenchとかで比較して欲しいわ。 Eテレ22:00- 又吉直樹ヘウレーカ 「僕たちの目はいつからついてるの?」目の起源 サウジアラビア王立研究所 五條堀孝先生 遺伝子ちゃらんぽらん説 ウズベンモウソウ アンドンクラゲ 植物シアノバクテリアの遺伝子が動物プランクトンへ ウズベンモウソウからアンドンクラゲへ 捕食と共生、カンブリア大爆発、進化と多様性 カメラ眼、タコの目は水晶体のレンズが動く 鳥は赤、緑、青、紫 昆虫の複眼、紫外線、花の蜜ネクターガイド 動体視力の高さ 三つの目のなごり、脳の松果体、時間感覚 >>75 >AIの模倣したジャンプの動きは、初速と方向をジャンプに勢いをつける動きと >ラベリングして予想したもの それ違う、×「予想」 →○「予測」 繋がりやら状況を観察して予測モデルを作ったその計算式による答えでしかない。 AIが行うモデルは基本は観測による「性質解析」をして そのデータから秩序モデルを求め、その抽象アルゴリズムの解でしかない。 予想というのは擬人化したAIちゃんが自我と心をもって自分の希望を含めた願いを 思い具現化するものな。 >>69 INT128とかINT64があったとして例えINT128からINT8にしても 16倍の性能が得られそして精度は10%程度しか落ちない TensorコアならINT4とか INT1とか極端なモデルも考えられる。 実際神経のそれはニューロンが興奮した(あるいは発火した)を示せれば作れるわけで "発火 or 非発火"で 1ビットでも足りる。 ビット数を減らせば同じ回路数での同時に演算できる行列演算(テンソル計算)の性能が増えるってこと。 10/13((土))21:00- NHKスペシャル 『AIに聞いてみた』どうすんのよ!?ニッポン 第3回 マツコデラックスと有働由美子が人工知能AIと大問題「健康問題」に挑む。 10/13((土))21:00- NHKBSプレミアム スーパープレミアム『マリオ〜AIのゆくえ〜』 近未来の東京を舞台にAI人間となって生まれ変わった男と、いじめで自殺を考える少年との友情物語。 10/13(土)23:30-24:00 BSアニマックス 『無料 ゲーム★アニマックス ♯163』 10/14(日)0:00-0:30 BSイレブン 『ソードアートオンライン アリシゼーション』第2話 「悪魔の樹」 【「BEATLESS Final Stage」全4話 放送情報】 http://beatless-anim...ws/detail_0912_1.php ■MBS 9月25日(火)27:00〜27:30 :第21話放送 10月14日(日)26:15〜27:45 :第22話〜第24話放送 10/13((土))22:30- NHKBSプレミアム 『フランケンシュタインの誘惑』科学史 闇の事件簿 「超人類 人か?機械か?」 10/14(日)23:30-00:00 NHK Eテレ 『サイエンスZERO』 美少女CGが手話を会得 AI編集の実力 10/15(月)0:00-0:45 『地球ドラマチック(再)犬vs猫対決 2』 ネコの愛情ホルモン!感情を理解するイヌ! 10/15(月)0:45-1:32『超AI入門(再)人間ってナンだ?』機械も感じる? 10/15(月)2:15-3:45 MBS『BEATLESS Final Stage』 全4話中残り3話をまとめて 第22話〜第24話放送 世界バレー女子の試合次第で繰り下げ可能性あり >>85 スーパープレミアム『マリオ〜AIのゆくえ〜』 これ、ドラマ仕立てで分かりやすく懸念材料がちりばめてあって、なかなか面白かったです。 続編映画とかDVDで出ないかな? >>87 『フランケンシュタインの誘惑』科学史 闇の事件簿 のサイバネティクス・オーガニック=サイボーグの父とも言うべきモシャーって人凄いね。 人間の拡張ってトランスヒューマニズムだし。 もし生きてらボストンダイナミクスのロボット見て対抗心燃やすだろうな。 >>82 INTて整数型か?の1や4て意味あるんかな?逆に遅くなりそう。 倍精度より単精度が遅いみたいな? コンピューターでも計算が狂う?より ttp://izumi-math.jp/sanae/inf_box/flow/flow.htm >単精度は4バイト(32ビット)で、 >倍精度は8バイト(64ビット)で一つの数値を表します。 >単精度では、全体の符号が1ビット/仮数部が24ビット/指数部が7ビットで表現されます。>仮数部の精度は10進数で6桁しかありません>一方、倍精度では仮数部52ビット/指数部が11ビットとなり、精度は15桁に上がります。 >>82 >実際神経のそれはニューロン〜"発火 or 非発火"で 1ビットでも足りる。 ディープラーニングって0から1の間の確率に落とし込むんじゃないの? 論理だけならブーリアン型で良いってこと? バディドッグ 4 (ビッグ コミックス)発売中! 細野 不二彦 商品情報 発売日:2018年09月28日頃 著者/編集:細野 不二彦 レーベル:ビッグ コミックス 出版社:小学館 発行形態:コミック ページ数:208p ISBN:9784098600700 内容(出版社より) バディドッグ派遣事業、スタートなるか!? >>44 サイエンスZEROに映ってたのはどーみても ゲーミングPCタイプだった。 デスクトップ画面は無料のOS Ubntu14か16 ソフトウェアはCUDAとPython 藤田一弥『実装 ディープラーニング』 を参考にすると、 Windows10Proが動作するスペック マザー¥10,000 コアi7 \7,000 メモリ16GB \2,2000 グラボGTX1080 \80,000 HDDが2T \20,000 1200W電源 \20,000 筐体 \20,000 くらいでも20万円で作れそうだよ。 >>90 横だけど、一つの細胞がどうなってるかを表すために必要なデータの大きさなのでは。 INT4だと4x8bit=32bitで一つの細胞を表すとか。 一回計算する時間が変わらないとすると、一つの細胞をINT4で表していると 一回計算して一つの細胞しか計算できないけど、一つの細胞を1bitで表していると 一回で32個の細胞を計算できるみたいな。 >>93 ちゃんとあるんですかね?使われてるのかな? SAPと関連業務の用語集に関するページ。 http://www.sapfan.jp/term015.html >自分のためのメモ的なものですので、参考にしていただくのは自由ですが、 >内容に責任は持てませんので御了承ください。 用語集/INT4 -2177483647〜2177483647までの4バイト整数。最大10桁。 用語集/INT2 -32767〜32767までの2バイト整数。最大5桁。 用語集/INT1 0〜255までの1バイト整数。最大3桁。 【前スレ】 の重みパラメータだと10桁あればこと足りるってこと? 人工知能で自我・魂は作れるか?2AI [無断転載禁止]©2ch.net https://rio2016.5ch.net/test/read.cgi/future/1500306941/727 https://rio2016.5ch.net/test/read.cgi/future/1500306941/586 >586で紹介したQiitaの手書き数字認識のnet_params.js ←学習済みパラメータデータ配列 の一例を抜粋するとこんなんやで net_params = { "w1":[[-0.00741249,-0.00790439,-0.013075,0.0185257,-0.00153461,-0.00876485,-0.0292946,-0.0210186,-0.0149041, -0.00563215,-0.00669386,-0.0953202,0.0230295,0.00116916,0.0422731,0.00876646,0.0278336,-0.0357516,0.014931, -0.00776699,0.0100918,-0.0381134,-0.0302279,-0.00554773,0.063695,0.0315716,0.0631695,0.0197872,-0.0433127,-0.013501], [・・・], 小数は整数に含まれませんが・・整数に直してから計算してまた少数に戻すのか?さっぱりわからん・ これを最大10桁のまま計算だったら早いのか?重みが消えてしまいませんか?勾配喪失? >>94 単精度演算だったら聞いたことあるし使われてるのでは。 1bitで神経細胞がどうなってるか表せないんじゃないかと思う。 10/14(日)23:30-00:00 NHK Eテレ 『サイエンスZERO』 美少女CGが手話を会得 AI編集の実力 SAYAの手話CGがすごい。微妙な調整が大変だけど、最初の一歩 エロさも技術力向上には必要だと思うけれども、日本はどうして投資が進まず個人レベルなのだろうか? 日本のCGキャラ Saya: An extremely realistic CGI character https://youtu.be/iAJgZyrTeRU CGI is getting better and better! 海外のCGキャラ Unreal Engine 4 - (2018) - Ridiculous Realistic Looking Characters! https://youtu.be/Vh9msqaoJZw 2018, so a new year for Unreal Engine 4 technology to shine! A few days ago, GDC 2018 showed us how great the future of Unreal Engine 4 can look. Especially characters can look better then ever! 世界のロボットキャラ あなたが見なければならない信じられないほどの生き生きとしたヒューマノイドロボット8 https://youtu.be/dIuL4D00uOY 8:ASUNA 7:HAN 6:ACTROID 5:SOFIA 4:ERICA 3:GEMINOID DK 2:Kodomoroid and Otonaroid 1:JIA JIA SENSORS「ロボットと表現について」ERICA×小川浩平×落合陽一×齋藤精一が白熱議論(ロボットと表現 1/4) https://youtu.be/jOiP2gWuhcE 今回、SENSORSが注目したテーマは「近未来ロボット」。 日テレ新人アナウンサーのアオイエリカ(AOI ERICA)、 大阪大学小川氏を交え、MC陣と白熱の議論を展開。 劇場版SAO公開記念して2017年2月15日に行われた、「AR LIVE Technotopia SAO × “Wizard” Yoichi Ochiai」のイベント映像。 落合陽一×映画監督・伊藤智彦トークショーのほか、ARアイドル・ユナの特別ライブも必見。 https://youtu.be/XBUTKEKoJew アニプレックス 2017/02/17 に公開 「深層学習の現状は、1998年のインターネットに近い」: 「インターネット」で勝てなかった日本が、「深層学習」で勝つには http://www.atmarkit.co.jp/ait/spv/1810/17/news012.html NVIDIAが開催した「GTC Japan 2018」で、 東京大学 特任准教授、日本ディープラーニング協会 理事長の松尾豊氏が登壇。 深層学習の原理や、深層学習に関する研究の現状について説明し、 今後、実社会で深層学習がどう扱われていくのか、持論を展開した。 最小二乗法は、統計学で用いられる「回帰分析」などにおいて、係数を推定する方法だ。 「例えばMicrosoft Excelでは、xを気温、yを冷たい飲料の売り上げとしたときの散布図に近似直線(y=ax+b)を引ける。 近似直線を引くための位置(係数a,b)を決定付けるアプローチが、最小二乗法だ」 松尾氏は、「深層学習とは、最小二乗法の巨大なお化けのようなものだ」と紹介し、 (略) 「最近、『人工知能で政治を』という話を耳にしたが、 『xとyが定義できますか』と問いたい。 xとyが定義できなければ、データを集めてもプロジェクトはうまくいかない。 画像をxとしてyを犬や猫にすれば画像認識、xを英語の文としてyを 日本語の文とすれば翻訳、というように、 xとyを何にするかを考えるべきだ」 報道ステーション10時24分 ▽日本のロボット開発どこまで >>103 それって人間が解ってることはさっさと教えろって事だと思う。 >>106 yとxの関係が、人間がそういう関係になって欲しいと思う関係だとすると、 データをたくさん集めるとその関係が統計的にだんだんわかるのが ディープラーニングだと思う。 だから、統計の計算でそうなって欲しいと思う関係がわかるまで いつまでデータを集めなければならないかわからないようになる場合は 人間が解ってることはさっさと教えた方がはやいだろうとなると思う。 どういう統計をとってどういう見方をするのかってことだろ なって欲しいデータにならなかったら改竄するんか? それを捏造っていうんだよ。 >>107 統計くらい勉強しとけよ、とは言わないけど どういう意味を持っているのか、ちゃんと理解しないと、会話が成立しないよ ひまわりは一般的に黄色いから、背が高いんだくらい、もう、何言ってんだか誰にもわからないこと言ってるよ、君 http://worldrobotsummit.org/wrs2018/ 【名 称】 World Robot Summit(ワールドロボットサミット・WRS) 【会 期】 2018年10月17日(水)〜21日(日) 10:00〜17:00 【会 場】 東京ビッグサイト 東 6・7・8ホール 【主 催】 経済産業省、国立研究開発法人 新エネルギー・産業技術総合開発機(NEDO) 【入場料】 無料(登録制) >>106-111 画像のディープラーニングで、たくさんの画像データを処理させたら 人間が教えなくても自動で猫と判断したり犬と判断したりする機能ができた と言って評価していると思う。 ところが、>>103 では松尾氏がその画像認識と「xを英語の文としてyを日本語 の文とすれば翻訳」という例とをいっしょに並べている。 この翻訳の例では、yが正しいxの翻訳の場合のデータだけを使って ディープラーニングしないと人間の欲しい翻訳の機能が早くできないと思う。 いっしょに並べてる例だから、画像のディープラーニングの例も、これは猫、 これは犬と教えてディープラーニングするというやりかたを言ってると思う。 だから、政治用ディープラーニングをする時に、ただ世の中の様子をいつまでも ディープラーニングするより、例えばxは世論、yは政策と定義して、世論と うまく行った製作の例だけディープラーニングさせる(つまり人間が うまく行く例を教える)と、早く政治用AIが作れるだろう、と言ってると 思える。 >>113 頑張って書かれていることを読み解こうとしてみたけど、ちょっとズレてると思う。 僕もそんなに詳しくないけれども、まず、ディープラーニングについて整理させてね。(詳しい人突っ込みお願い) 学習を目的とした、入力データと教師データのペアをトレーニングデータセット。 例)入力X飛行機の画像121枚フォルダ名がY1番、X猫98枚Y2番、X犬107枚Y3番・・・・・ 学習状況の評価のためにトレーニングデータセットの一部を抽出して使う 入力データと教師データのペアをバリデーションデータ。 例)猫3枚は2番と定義済みなので猫3枚を入力すると2番と答えるかどうか。 推論を目的とした、入力データのみのデータをテストデータセットといいます。 例)何が映っているか分からない画像 1枚 画素は(x、y、rgb)100dot×100dotなら10000pixelが赤青緑で3レイヤー 簡単に10000pixelが入力のXで、0.00〜1.00の数字が1万個とし、推論のYは1番なら飛行機、2番なら猫、3番なら犬・・ という風にXとYを定義します。 で、ものすごく大雑把に間違いを含めて説明すると、>103で紹介の松尾氏のいうのは”最小二乗法”というか(y=ax+b)のような関数の話。 例えば(y=ax+b)が今 犬3番=係数 a 掛ける0.50+b の時にaとbを変化させて3番になるようにする。 3=a×0.50+b でaが4なら 3=4x0.50+b でb=1が求まる結果 学習後(y=4x+1)の式が完成し、 未知の入力データが例えば 0.25をXに入力すると(y=4x0.25+1)=2となって2番の猫ですという推論される。 ここでトレーニングデータセット次第でなんでもよいのであって 単語や文章でX1リンゴ、X2自動車、X3sports・・、Y1がapple,Y2がdog,Y3が鉛筆・・ (Y2がdog)=a×(X2自動車)+b と定義してabを学習させれば車の絵を見せてdogと答えさせられるってだけ。 >>114 法律や政治において、課題や事案と政策がペアで定義できるならディープラーニングの手法が使えますが “『xとyが定義できますか』と問いたい。xとyを何にするかを考えるべきだ” 問題とその答えの定義を先に考えて決めることの方が大切ですよね。という意味だと解釈出来ます。だから 113>例えばxは世論、yは政策と定義して、世論とうまく行った“政策”の例だけディープラーニングさせる 考えになるんだろうけど、じゃあ、その世論とか政策って具体的に何?なの?。 文章と数式で確定できるようなものなの?場所や立場や考え方が複雑多様で簡単には決められないよね? >>115-116 念のため、教師あり学習の場合で、半分教師ありや教師なし学習、強化学習やQ学習その他はべつね >>117 そういう説明のアプローチは間違ってると思う 元の文章で言わんとしていることを対話してる人は理解してなさそうだ、統計、ディープラーニングも単語を知ってるだけで、概要すらあまり知らないらしい という事を前提にするなら、政治にAIをという話があるけど、入力も出力もちゃんと定義出来るのか考えろと言う例え話と言うか原則論を述べているに過ぎないんだ、やれると肯定的に評価してるこっちゃないんだよ とでも説明しときゃ良いんじゃなかろうか? 政治的な課題と望ましい結果、そんなものが単射されるもんなんだろうかと自問すれば、愚問だと言うのは論を待たないんだし 見直しや再検討が進んでいる社会保障と税金や保険料の関係なんて考えればすぐにわかる >>118 >例え話と言うか原則論を述べているに過ぎないんだ、やれると肯定的に評価してるこっちゃない そうですよね、まぁディープラーニングの誤解やAIに対する偏見が多いようなので少しでも具体的に、と思ったんですが。 一般の視点も大事ですが、入力と出力の意味も関数の意味も通じないのでは仕方ありませんね。 具体的にどうやってまとめるのか?確かにちょっと考えても無理そうだ、っていうか一覧表や対照表でよさげ。 世論0=物が高くて買えないじゃないか!飢え死にしろと言うのか 世論1=借金だらけで財源が少ないから税収を増やさないと 世論2=貧困層からも徴収するなんて酷い 世論3=システム更新に掛かる費用をどうしてくれるんだ 世論4=国が破綻したら元も子もない 世論5=経済を活性化させる為にも金回りを良くしよう 世論6=社会保障費用をどうやって賄おうか 世論7=金持ちや企業から徴収すればいいだろ 世論8=金利は低いしお金はジャブジャブ余ってるよ 世論9=日本だけでなく世界との兼ね合いも考慮して 政策0=消費税撤廃 政策1=消費税3%に引き下げ 政策2=消費税8%現状維持 政策3=消費税10%に引き上げ >>119 その表を見れば政治AIは無理だと思える、と言う意味? それとも単に、政治AIを開発するなら例えばこう定義する、と言う意味? 世論0〜9すべて 「スミマセンお役に立てそうにアリマセン。」 いずれにしても、意味を理解してもらうのが無理、AIも国民も。 >>121 意味を理解できなくても東ロボ君はMARCH合格圏内の実力らしいから、 MARCH出身の政治家レベルにはできるかも。 >>119 の定義で、昔からの世界中のうまく行った時の政策とその政策をやる前の世論 の文章をディープラーニングすると、入力に政治がうまく行っていない時の 世論の文章を入れれば出力にうまく行く可能性の高い政策が選ばれて出るように できるかも。 で、こういうのは教師有りの機械学習だと思うので、さっさと教える、になると思う。 (M)- 明治大学(東京都千代田区) (A)- 青山学院大学(東京都渋谷区) (R)- 立教大学(東京都豊島区) (C)- 中央大学(東京都八王子市) (H)- 法政大学(東京都千代田区) へぇーマーチって文系?それも、私立は3教科でよかったり?歴史は暗記もの?で9割とって後は平均だったりとか?、 国語とか、化学も穴埋めだったりしないの? 英語は人間よりコンピューターのほうが得意そうだし。 理系の数学と物理はどうなんだろ? 馬鹿にしてるんじやないよ、自分には全く敵わないから。 でもね、入試で合格したところで、 入学してロボットが講義受けて単位を取れるレベルではまったくないでしょ。 頭だけで手足も揃ってないでしょ。 だいたい間違った政策を続ける政治もありゃあ、正しい政策なんてものもないし、 あっても投票や可決成立、執行まで問題山積だわ。 前スレの最後のほうでディープラーニングを学びはじめて、違和感に気付いたんだよ、 関数のお化けで人間の認知にはたどり着けるのか?って。 別の方向のアプローチが何か足りないって。 何かは分からないけど、今の機械学習だけではその上の概念獲得は難しいんじゃないかな? >>123 東ロボ君は手があって、文章で回答できるらしい。 >>124 概念の層が増えればいいだけなんでしょ? その命題たてる意味がわからない 関数のお化けがどんどんお化けになっていけばいいんだよそれがゴール さすがにグーグルのdeepmindも気付いていたようね。 (強いAI)技術的特異点/シンギュラリティ139 http://rio2016.5ch.net/test/read.cgi/future/1539667923/453 453オーバーテクナナシー2018/10/21(日) 04:35:40.75ID:WKNnVBDC Googleは機械学習の欠点を熟考している ──「深層学習」のアプローチが、人間の認知能力にさえ到達する能力を達成することに失敗したことを認める https://www.zdnet.com/article/google-ponders-the-shortcomings-of-machine-learning/ >DeepMindは、ニューラルネットワーク自体を使用する必要がないという驚くべき主張をする >>125 形だけの表面的な手足という意味だけじゃないよ。 髪の毛を無意識に触るとか、イライラで貧乏ゆすりするとか、 好奇心の赴くまま羽根を伸ばしたり、押すなと言われてもボタンを押したり。 中身の話。 https://www.zdnet.com/article/google-ponders-the-shortcomings-of-machine-learning/ 「さまざまな圧力の下で開発された人間の知性の多くの特徴を定義することは、現在のアプローチの範囲を超えており、 特に「経験を超えて一般化する」ものです。 したがって、「人間と機械の知性の間には、特に効率的で一般化可能な学習に関して、大きなギャップが残っています。 これに対応して、彼らは「強力な深い学習アプローチを構造化された表現と融合させる」と主張し、 その解決策は「グラフネットワーク」と呼ばれるものです。 これらは、オブジェクトの集合のモデルであり、 その関係はオブジェクトを接続する「エッジ」として明示的にマッピングされます。 「人間の認知は、世界が物と関係で構成されていることを強く前提にしており、 GNs [グラフネットワーク]も同様の仮定を立てているため、それらの行動は解釈可能になる傾向がある」 しかし、以前の研究とは異なり、著者らは、ニューラルネットワーク自体を使用する必要がないという驚くべき主張をしています。 むしろ、オブジェクトの関係をモデリングすることは、CNN、リカレントニューラルネットワーク(RNN)、 ロング短期記憶(LSTM)システムなどのさまざまな機械学習モデルに及ぶだけでなく、集合理論のような神経網ではない。 >>128 課題もあるけれど、ブレークスルーということか 少ないサンプルでできるのがいいな Tensorflowでできるんだな 課題 "notions like recursion, control flow, and conditional iteration are not straightforward to represent with graphs, and, minimally, require additional assumptions." + Other structural forms might be needed, such as, perhaps, imitations of computer-based structures, including "registers, memory I/O controllers, stacks, queues" and others. https://zdnet2.cbsistatic.com/hub/i/r/2018/10/20/39b41e82-91f1-4c46-acbd-bf6ffdbb7010/resize/370xauto/5747e621e6954148703aeb29e39399e9/image.jpg Google AIの研究者は、粒子、文、画像内のオブジェクトなど、広範に考えられる多くの事柄が、エンティティ間の関係のグラフになっていると考えています。 Google Brain、Deep Mind、MIT、エジンバラ大学。 この考え方は、グラフネットワークがどの機械学習アプローチよりも大きいことです。 グラフは、個々のニューラルネットが持たない構造について一般化する能力をもたらす。 著者らは、「グラフは、一般的に、任意の(ペアごとの)リレーショナル構造をサポートする表現であり、 グラフ上の計算は、畳み込み層と再帰層が提供できるものを超える強い関係誘導バイアスをもたらす」と書いている。 グラフの利点は、潜在的により「より効率的なサンプル」であるということです。つまり、厳密なニューラルネットアプローチほどの生データを必要としません。 著者らは、著者がすべてを理解したと思っていると思わないように、この論文はいくつかの長引く欠点を列挙しています。 Battaglia&Co.は大きな疑問を提起しています。「グラフネットワークはどこから来ていますか? 深い学習は、生のピクセル情報など、多くの非構造化データを吸収するだけだと指摘しています。 そのデータは、世界の特定のエンティティに対応していない可能性があります。 彼らは、「感覚データから確実に個別のエンティティを抽出できる」という方法を見つけることは、 "エキサイティングな課題"になると結論づけています。 また、グラフはすべてを表現することができないことも認めています。 「再帰、制御フロー、条件付き反復などの概念は、グラフで表現するのは簡単ではなく、最小限の追加の前提が必要です。 おそらく、レジスタ、メモリI / Oコントローラ、スタック、キューなどを含むコンピュータベースの構造の模倣など、他の構造形式が必要になる可能性があります。 (以上翻訳終わり) >>131 私にはどうやって使うのかわからないけど。 IBMのTrueNorthみたいなアプローチが課題ってことかな? 2014年から大分経つけど新しい情報ないかな? 人間の脳を模倣したプロセッサ-- IBMの「TrueNorth」がもたらす新時代 https://japan.cnet.com/article/35052175/ >>133 どうも、コピペすることぐらいしか私には出来ませんので、お役に立てれば幸いです。 アクセスとかSQLデータベースのリレーションシップをどうやって生データから構築するかって事でしょうか。 グラフ構造の重要性は明らかだが、ヒントンが制限ボルツマンマシンによって既に実現している というより既にその限界まで明らかになっている 限界は単に組み合わせ爆発であり、コンピューターの主処理構造が一新されない限り解決しない また、再帰、制御フロー、条件付き反復などの概念は「グラフで表現する」構造ではなく、 「既にグラフ内に存在する」構造であり、単に我々がそれを語るための言葉が未整備なだけと考えている >>137 グラフとロジックを結びつけるという感じか 参考書はこれになるんでしょうか?また別のグラフ理論の方でしょうかね? https://www.kindaikagaku.co.jp/information/kd0536.htm グラフ・ネットワークアルゴリズムの基礎 数理とCプログラム 近代科学社 著者 浅野 孝夫 ページ数 248 サイズ A5 ISBN 978-4-7649-0536-8 https://www.amazon.co.jp/ グラフ・ネットワークアルゴリズムの基礎/dp/4764905361 グラフ理論入門―C言語によるプログラムと応用問題 (原理がわかる工学選書) 単行本 – 1999/4/1 佐藤 公男 (著), 樋口 龍雄 (監修) 単行本: 154ページ 出版社: 日刊工業新聞社 (1999/4/1) 言語: 日本語 ISBN-10: 4526043613 ISBN-13: 978-4526043611 発売日: 1999/4/1 https://www.amazon.co.jp/ グラフ理論入門/dp/4526043613 >>137 いまいちよく分からないのでおさらい 制限付きボルツマンマシンの初心者向けガイド https://postd.cc/a-beginners-guide-to-restricted-boltzmann-machines/ >>138 >グラフとロジックを結びつける どのように結びつけるのか?もう少し具体的にお願いします >>140 いや、英文からそうとれるというこで 俺が分かるわけではない。 先端の研究者の発言だし、そう分かる人いないのではないかな >>140 のページ全然初心者向けじゃないような。未だにチンプンカンプンです。 >>141 そうですか。ここのスライドシェアでも見てみます。 (強いAI)技術的特異点/シンギュラリティ139 https://rio2016.5ch.net/test/read.cgi/future/1539667923/477 477 名前:オーバーテクナナシー 2018/10/21(日) 15:01:19.76 ID:vYvFS4xL http://www.slideshare.net/mobile/DeepLearningJP2016/dlrelational-inductive-biases-deep-learning-and-graph-networks-104442091 今後AIが人間同様のタスクを解くには、構造表現と深層学習の柔軟性を組み合わせた推論方法が重要だとし、 CNNやRNNより多様な関係性帰納バイアスを反映できるグラフネットワークを定義、 従来の研究をより一般的な枠組みに統合。 >>142 そのグラフってもしかして人間が うんうん考えて定義するのでは? [DL輪読会]Relational inductive biases, deep learning, and graph networks https://www.slideshare.net/DeepLearningJP2016/dlrelational-inductive-biases-deep-learning-and-graph-networks-104442091 17ページ目には“グラフを入力としてグラフを出力する「graph-to-graph」モジュール”って書かれてるけどね https://image.slidesharecdn.com/180629dlseminarrelationalinductivebias-180706003755/95/dlrelational-inductive-biases-deep-learning-and-graph-networks-17-638.jpg?cb=1530837634 17. • Graph network (GN) Block – グラフを入力としてグラフを出力する「graph-to-graph」モジュール – 1つのグラフは G = (u, V, E)で表される • u:グラフ全体のproperty、global attribute(例:重力場) • V:entityであるnode( vi )の集合(例:位置、速度などの属性を有する一つ一つのボール) • E:relationであるedgeの集合(ek)(例:ボールの間のばねの有無と、ばね定数という属性) 3. Graph networks https://image.slidesharecdn.com/180629dlseminarrelationalinductivebias-180706003755/95/dlrelational-inductive-biases-deep-learning-and-graph-networks-18-638.jpg?cb=1530837634 18. • GN Blockはuuppddaattee関関数数φφとaaggggrreeggaattiioonn関関数数ρρを有する – φは各node/edge/global attributeごとに更新を行う関数 – ρは集合を入力とし、集計結果として単一の要素を出力する関数。順序不変で可変長の入力を受け取る必要 3. Graph networks 各ボール間の張力を更新 各ボールに働く全張力を集計 各ボールの位置・速度などを更新 全体の張力の合計(=0)を集計 全体の運動エネルギーを集計 全体のエネルギーの総和を更新 ■ このスレッドは過去ログ倉庫に格納されています
read.cgi ver 07.5.4 2024/05/19 Walang Kapalit ★ | Donguri System Team 5ちゃんねる