人工知能で自我・魂は作れるか?その3

1オーバーテクナナシー2017/12/30(土) 11:52:39.28ID:gOEuFdRe
自由に語ろう

【前スレ】
人工知能で自我・魂は作れるか?2AI [無断転載禁止]©2ch.net
http://rio2016.2ch.net/test/read.cgi/future/1500306941/

2オーバーテクナナシー2017/12/30(土) 12:06:46.05ID:VdkXAHD+
スレの住人の了解も得ずに乱発するのは良くないよ。

3オーバーテクナナシー2017/12/30(土) 12:13:37.13ID:VdkXAHD+
>>1
ID:gOEuFdRe
さんは立て逃げせずにスレ主として最後の1000レスまで責任とって下さいね。
よろしくお願いいたします。

4オーバーテクナナシー2018/05/17(木) 13:40:31.36ID:6koctVbj
いろいろと役に立つPCさえあれば幸せ小金持ちになれるノウハウ
暇な人は見てみるといいかもしれません
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』

U600P

5オーバーテクナナシー2018/05/20(日) 01:55:10.35ID:ViowkTec
鬼灯「呪いの人形には魂があるから人工知能乗っけるには、うってつけなんですよ」

6オーバーテクナナシー2018/05/20(日) 04:08:28.47ID:ViowkTec
黒い混沌➕シロクマ=🐼
黒➗白=23%☺

7オーバーテクナナシー2018/07/19(木) 09:12:21.38ID:SMisF2cd
GoogleがAIを使って脳組織をイメージ化する技術を開発
http://gigazine.net/...-maps-brains-neuron/
http://gigazine.net/news/20180717-google-maps-brains-neuron/
High-precision automated reconstruction of neurons with flood-filling networks | Nature Methods
https://www.nature.com/articles/s41592-018-0049-4

Google AI Blog: Improving Connectomics by an Order of Magnitude
https://ai.googleblog.com/2018/07/improving-connectomics-by-order-of.html

Google researchers create AI that maps the brain’s neurons
https://venturebeat.com/2018/07/16/google-researchers-create-ai-that-maps-the-brains-neurons/

8オーバーテクナナシー2018/07/19(木) 09:19:17.39ID:SMisF2cd
High-precision automated reconstruction of neurons with flood-filling networks | Nature Methods
洪水充填ネットワークを用いたニューロンの高精度自動再構成
MichałJanuszewski、ヨルゲン・コーンフェルド、[...]
自然法 (2018) | 引用をダウンロードする

抽象
体積電子顕微鏡データから神経回路を再構築するには、それらの全ての神経突起を含む細胞全体を追跡する必要がある。
追跡のための自動化されたアプローチが開発されているが、それらの誤り率は高すぎるため、広範な人間の校正なしに信頼性の高い回路図を生成することはできない。
我々は洪水充填ネットワークを提示しています。
これは、以前のほとんどの努力と同様に、畳み込みニューラルネットワークを使用しますが、
個々のニューロンプロセスの反復最適化と拡張を可能にする反復経路を含みます。
我々は、ゼブラフィンチ脳の連続的なブロック - 顔電子顕微鏡によって得られたデータセットのニューロンを追跡するために、
洪水充填ネットワークを使用した。
我々の方法を用いて、我々は1.1mmの平均誤差のない神経突起の経路長を達成し、
97mmのパス長のテストセットでは4回の合併しか観察されなかった。
洪水充填ネットワークの性能は、このデータセットに適用された以前のアプローチよりも大幅に優れていましたが、計算コストは​​大幅に増加しました。

9オーバーテクナナシー2018/07/19(木) 09:27:54.63ID:SMisF2cd
Google AI Blog: Improving Connectomics by an Order of Magnitude
大きさの順にコネクトミックスを改善する
2018年7月16日(月曜日)
GoogleでConnectomicsのソフトウェアエンジニア、Michal Januszewski、Viren Jain、研究者、科学者、および司会者Connectomics


の分野は、脳の仕組みをよりよく理解するために、神経系に見られるニューロンネットワークの構造を包括的にマッピングすることを目指しています
働く このプロセスは、ナノメートルの分解能(典型的には電子顕微鏡を使用して)で3次元の脳組織を画像化し、
次いで得られた画像データを分析して脳の神経突起を追跡し、個々のシナプス接続。
イメージングの高分解能のために、立方ミリメートルの脳組織でも1,000テラバイト以上のデータを生成することができます。
これらの画像の構造が非常に微妙で複雑であるという事実と組み合わされると、
脳マッピングにおける主要なボトルネックは、データ自体の取得ではなく、
これらのデータの解釈を自動化しています。
洪水充満ネットワークを用いた3D画像セグメンテーション
大規模電子顕微鏡データにおける神経突起のトレースは、画像セグメンテーションの問題の一例です。
従来のアルゴリズムでは、エッジ検出器または機械学習分類器を使用して神経突起間の境界を見つけ、
境界線で区切られていない画像ピクセルを、流域またはグラフカットなどのアルゴリズムを使用してグループ化した。
2015年には、これらの2つのステップを統合したリカレントニューラルネットワークに基づく代替アプローチを試し始めました。
アルゴリズムは、特定のピクセル位置にシードされ、
次に、どのピクセルがシードと同じオブジェクトの一部であるかを予測する反復畳み込みニューラルネットワークを使用して、
領域を反復的に「塗りつぶす」。
2015年以来、我々は大規模なコネクトミックスのデータセットにこの新しいアプローチを適用し、
その正確さを厳密に定量化するために取り組んできました。

10オーバーテクナナシー2018/07/19(木) 09:35:21.21ID:SMisF2cd
https://1.bp.blogspot.com/-GvN3s9zAd2E/WzQamIoyrMI/AAAAAAAADGU/UqSwCwOw7XQuBkk3iJQEpiHMRmEpt-hvgCLcBGAs/s1600/image3.gif
予想されるランレングスによる正確度の測定
マックスプランク研究所のパートナーと協力して、
次のことを測定する「期待ランレングス」(ERL)と呼ばれる指標を考案しました。
脳の3D画像内のランダムなニューロン内のランダムな点何らかの間違いをする前にニューロンをどれだけ追跡することができますか?
これは、この場合、時間の長さではなく、失敗の間隔の大きさを測定することを除いて、平均故障間隔メトリックの例です。
エンジニアにとって、ERLの魅力は、それが線形で物理的な経路の長さをアルゴリズムによって作られた個々の誤りの頻度と関連づけ、それが直接的に計算できることである。
生物学者にとって、ERLの特定の数値は生物学的に関連する量、
例えば、神経系の異なる部分におけるニューロンの平均経路長。
ソングバードConnectomics
私たちは、1万立方ミクロンの範囲内のニューロンのグラウンド・トゥルースセットに私たちの進捗状況を測定するために
ERLを使用キンカチョウ使用して、当社の協力者によって撮像された曲、
鳥の脳シリアルブロックフェイス走査電子顕微鏡を、我々のアプローチは非常に優れた性能を発揮することを発見しました
同じデータセットに適用された以前のディープ学習パイプラインよりも優れています。
我々は、ここに描かれているように、新しい洪水充填ネットワーク手法を使用して、
ゼブラフィンチの歌鳥の脳の小さな部分のすべてのニューロンをセグメント化しました
https://youtu.be/X4eVmSxTZ8Y

11オーバーテクナナシー2018/07/19(木) 09:37:10.67ID:SMisF2cd
https://3.bp.blogspot.com/-gaOWX7BKxMg/W0t7BBsWN-I/AAAAAAAADKs/l25qFCT1pK0MRRKXYppnHqQTu6OQdGnfQCLcBGAs/s1600/image4.gif
これらの自動化された結果と、残りのエラーを修正するために必要な少人数の追加の人間の努力とを組み合わせることにより、
マックスプランク研究所の共同研究者は、今、ゼブラフィンチの鳥が歌を歌い、
テスト理論彼らが彼らの曲を学ぶ方法に関連しています。

次のステップ
我々は、マックスプランク研究所や他の場所でシナプス分解能のコネクトミックスを完全に自動化し、
進行中のコネクトミクスのプロジェクトに貢献することを目的として、コネクトミックス再構成技術を改良し続けます。
コネクトミクス技術の開発におけるより大きな研究コミュニティの支援を支援するために、TensorFlowコードを公開して、
洪水充填ネットワークのアプローチと、再構築結果を理解し改善するために開発した
3次元データセット用のWebGLビジュアライゼーションソフトウェア。

謝辞
私たちは、Tim Blakely、Peter Li、Larry Lindsey、Jeremy Maitin-Shepard、
Art Pope、Mike Tyka(Google)、Joergen Kornfeld、
Winfried Denk(Max Planck Institute)の功績を称賛したいと思います。

12オーバーテクナナシー2018/07/19(木) 09:51:14.48ID:SMisF2cd
Google researchers create AI that maps the brain’s neurons
コネクトミックスと呼ばれる研究の分野である神経系における生物学的ネットワークの構造のマッピングは、計算集約的です。
人間の脳には約860億個のシナプスをネットワーク化したニューロンが含まれており、
1立方ミリメートルの組織を撮影すると1000テラバイト以上のデータを生成することができます。
(洪水充満ネットワークを持つニューロンの高精度自動再構成)では、
Googleの科学者が繰り返し学習するニューラルネットワークを実演しました。
手書きと音声認識 - コネクトミクス解析に合わせて作られています。
Googleの研究者はコネクトミックスに機械学習を初めて適用したわけではない -
3月に、Intel はマサチューセッツ工科大学のComputer Science and AI Laboratory と提携し、次世代の脳画像処理パイプラインを開発した。
しかし彼らは、彼らのモデルが、以前の深い学習技術に比べて
「大きさのオーダー」で精度を向上させると主張している。
研究者らは、神経突起の境界(ニューロン本体からの伸長)を特定するエッジ検出器アルゴリズム、
および反復的な畳み込みニューラルネットワーク(リカレントニューラルネットワークの
サブカテゴリ)を使用して、それらをグループ化し、ニューロン。
正確さを追跡するために、チームは、脳の3D画像内のランダムなニューロンを用いてランダムな点を与えて、
アルゴリズムを作成する前にニューロンをどの程度まで追跡できるかを測定した
「予想ランレングス」(ERL)間違い。
100万立方ミクロンのゼブラフィンチの脳スキャンで、
このモデルは以前のアルゴリズムよりもはるかに優れていたとチームは報告しています。
"これらの自動化された結果と、残りのエラーを修正するために必要な少人数の追加の人間の努力とを組み合わせることにより、
マックスプランク研究所の研究者は、
今、ゼブラフィンチ鳥がその歌を歌う方法彼らがどのように自分の曲を覚えているかに関連したテスト理論を学びました」と、
この論文のGoogleの研究者および主任著者であるViren JainとMichal Januszewski がブログ記事に書いています。

13オーバーテクナナシー2018/07/19(木) 09:57:10.38ID:SMisF2cd
https://github.com/google/ffn/
この論文に加えて、チームはモデルのTensorFlowコードをGithubに公開し、
WebGL 3Dソフトウェアとともにデータセットを視覚化し、再構成結果を改善しました。
彼らは、シンプレックス解決プロセスを完全に自動化し、
「マックスプランク研究所と他の場所でプロジェクトに貢献する」という目的で、
今後このシステムを改良する予定です。

ーーーーーーーーーー
以上Google翻訳コピペ終わり。

14オーバーテクナナシー2018/07/20(金) 07:51:34.63ID:LrmE8c1x
線虫の脳神経回路をレゴのロボットに”移植”...プログラミング不要で制御に成功
https://youtu.be/YWQnzylhgHc

これの延長に
人コネクトームの完全マップと
五感入力センサーと
全身筋肉アクチュエーターのアウトプットに繋いで
シミュレーションしたらどうなるのか?
プログラム不要で動作仕草振る舞いが再現されてしまったら、
意識や魂なんて存在しない妄想ということに?

15オーバーテクナナシー2018/07/20(金) 07:54:27.02ID:LrmE8c1x
http://itest.5ch.net/rio2016/test/read.cgi/future/1531923755/171-172
0172 オーバーテクナナシー 2018/07/20 07:24:25
>171
存在しないのではなく、言語体系の基に複雑、相互に絡まった特徴学習結果が
意識や魂となるっていう単純なお話でしょう
ただ旧来の定義のような崇高なものではなく、情報量によって定義されるっていうだけ

僕はザッソーモンが好きだよ、僕はザッソーモンが大好きだよ、僕はザッソーモンが御好みだよ、僕はザッソーモンを愛好するよ、僕はザッソーモンを有効するよ、僕はザッソーモンを嗜好するよ
寧ろ逆にザッソーモンを大切にするよ、他に別にザッソーモンを大事にするよ、例え仮に其れでもザッソーモンを重視するよ、特にザッソーモンを尊敬するよ、もしもザッソーモンを褒めるよ
十中八九ザッソーモンを希望するよ、森羅万象ザッソーモンを渇望するよ、無我夢中ザッソーモンを要望するよ、五里霧中ザッソーモンを切望するよ、天上天下ザッソーモンを熱望するよ、是非ともザッソーモンを祈願するよ
必ずザッソーモンは斬新奇抜だよ、絶対にザッソーモンは新機軸だよ、確実にザッソーモンは独創的だよ、十割ザッソーモンは個性的だよ、100%ザッソーモンは画期的だよ
当然ザッソーモンに決定だよ、絶対にザッソーモンに限定だよ、確実にザッソーモンに指定だよ、十割ザッソーモンに認定だよ、100%ザッソーモンに確定だよ
ザッソーモンは強いよ、ザッソーモンは強力だよ、ザッソーモンは強大だよ、ザッソーモンは強者だよ、ザッソーモンは強烈だよ、ザッソーモンは強靭だよ、ザッソーモンは強豪だよ、ザッソーモンは強剛だよ
ザッソーモンの勝ち、ザッソーモンの勝利、ザッソーモンの大勝利、ザッソーモンの完全勝利、ザッソーモンの圧勝、ザッソーモンの楽勝
ザッソーモンの連勝、ザッソーモンの優勝、ザッソーモンの戦勝、ザッソーモンの制勝
ザッソーモンの奇勝、ザッソーモンの必勝、ザッソーモンの全勝、ザッソーモンの完勝

17オーバーテクナナシー2018/07/31(火) 07:03:49.57ID:3B3vHek+
統計と機械学習の効率化の為のアプローチ
大量のデータセットの処理をデータベースで行う
Linux 系のPostgreSQL
ストレージをインメモリへHDD からSSD
行単位処理を列単位処理化
GPUのベクトル並列演算を使う

ヘテロDB、GPU利用のDB高速化技術「PG-Strom」のサブスクリプション製品とアプライアンス製品を発表
EnterpriseZine編集部[著]

2018/04/18 16:00
https://enterprisezine.jp/article/detail/10638
■PG-Strom バージョン 2.0

 「PG-Strom」は、最も広く使われているオープンソースのリレーショナルデータベースであるPostgreSQL向けに設計された拡張モジュールで、
SQLコマンドから自動生成したGPUプログラムを、GPUの持つ数千コアと広帯域メモリを用いて並列実行することで、
大量データの集計・解析処理を高速化するという。

 中核機能の1つであるSSD-to-GPUダイレクトSQL実行は、
NVMe-SSD上のPostgreSQLデータブロックの内容をGPUへ直接ロードし、
データがホストシステムに到着するよりも先にGPUでSQLワークロードを実行する。
これにより、CPUが処理すべきデータ量を数百分の1以下に削減し、
I/O中心のワークロードである集計処理や全件探索といったワークロードを
効率的に実行することが可能となるという。

18オーバーテクナナシー2018/07/31(火) 07:10:29.49ID:3B3vHek+
■PG-Stromの実行に最適なアプライアンスモデル

 PG-Stromの提供する各種のアクセラレーション機能のプラットフォームとして、
最適なハードウェアを選定して予め動作検証を行い、
必要なソフトウェアが全てセットアップ済みとなっている
アプライアンス製品を同時にリリースする。

モデル名:HeteroServer GS120-P40
CPU:Intel Xeon Gold 6126T (12C, 2.6GHz)× 1
RAM:DDR4-2666 32GB × 6 (total 192GB)
GPU:NVIDIA TESLA P40 (3840C, 24GB) × 1
SSD:Intel SSD DC P4600 (2.0TB; HHHL)
HDD:2.0TB (SATA; 7.2krpm) × 6
その他:10Gb Ethernet × 2ports

19オーバーテクナナシー2018/08/09(木) 02:46:25.93ID:8WDwc3Sq
「BigQuery ML」:SQLで機械学習
https://www.wantedly.com/companies/wantedly/post_articles/129482
Google Cloud Next 2018でBigQuery MLが発表されました。

文字通り、「BigQuery + 機械学習(Machine Learning)」を実現するもののようです。
この記事ではBigQuery MLの紹介と、それを直接SQLでやったらどのくらい大変かを見てみます。
BigQueryとは?
BigQuery は、Google が提供するサーバーレスでスケーラビリティに優れた、
低コストのエンタープライズ向けデータ ウェアハウスです
とあるように、Googleのクラウドサービスの一つで、大規模なデータを貯めておくことができ、
大量のデータに対しても分散して高速なデータの取得が可能です。
また比較的安価な料金で利用することができます。

20オーバーテクナナシー2018/08/23(木) 22:05:22.10ID:TpzuwP6r
各社のメニーコア比較

NVIDIA Teslaスペック
https://qiita.com/yukoba/items/10d0ba3fb1d19a6ab6a5

Volta V100 > 512 core FP16→32 = 119 TFLOPS(全て行列積)
Pascal P40 > 3840 core INT8 = 47 TFLOPS
Maxwell M40 > 3072 core FP16 = 13 TFLOPS
Kepler K40 > 2880 core FP32 = 5 TFLOPS
Fermi M2090 > 512 core FP32 = 1TFLOPS

Tegra
Jetson Xavier >512 core INT8 = 20 TFLOPS
Huawei Kirin NPU >FP16 = 1.9 TFLOPS
Apple Neural Engine > 0.6 TFLOPS
PowerVR AX2185 (Android Neural Networks API 経由) > 4.1 TFLOPS
Intel Movidius > 1TFLOPS
MobileEye Q4 PMA (Programmable Macro Array) >372core 1 TFLOPS
Intel Nervana Lake Crest >12core 39 TFLOPS
Intel Xeon Phi 7295 > 72core FP32 = 14 TFLOPS
Intel Xeon Platinum 8180 Skylake > 28core FP32 = 5.7TFLOPS

Google Tensor Processing Unit 第2世代 > 32768 MAC数 bfloat16= 45 TFLOPS

Xilinx Virtex UltraScale+ VU9P > 6840 DSP INT8 = 21.3 TFLOPS

21オーバーテクナナシー2018/09/15(土) 00:35:40.01ID:vveZmaBg
NVIDIA、AI学習モデルの推論処理に特化した「Tesla T4」
〜Pascal比で12倍の性能
https://pc.watch.impress.co.jp/docs/news/1142/896/amp.index.html
 Tesla T4では、CUDAコア2,560個と、
1クロックで4×4行列の積和演算を行なうTensorコアを320個搭載。
FP16の掛け算はFP32に積算、INT8およびINT4の掛け算はINT32に積算される。
これによって最適な精度と性能が得られるという。

22オーバーテクナナシー2018/09/15(土) 06:59:00.55ID:4SqSO7l9
NVIDIAが次世代グラフィックスのために作ったGPU「GeForce RTX」ファミリー
https://pc.watch.impress.co.jp/docs/column/kaigai/1143/278/amp.index.html
NVIDIAは、ハイブリッドレンダリングへの扉を開く新GPUアーキテクチャ「Turing(チューリング)」を市場に投入する。
NVIDIAはTuring世代で、
レイトレーシングをアクセラレートする「RTコア」と、
深層学習向けの「Tensorコア」を搭載した。
製造プロセス技術は12nmとなり、対応メモリはGDDR6となった。
Turingアーキテクチャの目玉は、レイトレーシングのアクセラレータである「RTコア(RT Core)」だ。
レイトレーシングでは、多くのオブジェクトと交差の判定を行なわなければならないため、計算量が膨大になる。
そこで、交差判定を減らす手法として
NVIDIAは階層型のバウンディングボリューム「BVH(Bounding Volume Hierarchy)」を使うトラバーサルを採用
Tensorコアは、これまでGPUコンピューティング向けのVoltaや、
車載向けのXavier(エグゼビア)にしか搭載されていなかった。
Turingは、グラフィックス向けGPUでは初めて深層学習用ユニットのTensorコアを搭載した。なぜ、NVIDIAは深層学習向けのTensorコアを、グラフィックス向けのGPUに搭載したのか。それは、Tensorコアによって、グラフィックス処理の高品質化を図ることができるからだという。
 その一例としてNVIDIAが強調するのが、非常に高品質なアンチエイリアシングを実現する「DLSS (Deep Learning Super Sampling)」だ。MSAA x64よりも優れたAAを、より低い負荷で実現できるという。

23オーバーテクナナシー2018/09/15(土) 07:54:19.07ID:4SqSO7l9
NHKスペシャル 人工知能 『天使か悪魔か』 2018 
〜未来がわかる その時あなたは?〜

総合 9/15 21:00〜 放送
http://www6.nhk.or.jp/special/sp/detail/index.html?aid=20180915

新着レスの表示
レスを投稿する