X



(情報科学)技術的特異点と科学・技術等 1 (ナノテク) [転載禁止]©2ch.net
0001オーバーテクナナシー
垢版 |
2015/03/25(水) 03:09:59.43ID:JLiLnBxr
※このスレは、下記の本家スレから分かれた分家スレです。転載に関する規定は本家に準じます。

■現在の本家スレ
(強いAI)技術的特異点/シンギュラリティ(世界加速) 13 [転載禁止]c2ch.net
http://wc2014.2ch.net/test/read.cgi/future/1426647717/


本家スレの話題のうち、科学・技術系で『専門的な』話題を特に扱います。

スレ成立のきっかけ
・技術的特異点の関わる分野は非常に幅広く、浅い部分から深い部分までレベルも様々で、多様な人が集まっている
・上記を前提として、科学・技術系で専門的な内容に集中しやすいように、ノイズ(特に不毛な論争)を減らしたい
・これにより、興味がある者同士の意思疎通困難性、過去ログ参照の困難性などが解消される

ただし性質上、本家との区分は厳密には困難です。
むしろ同じ内容が扱われても構いません。
本家は雑談寄り、ここではより専門色を強く、とご理解下さい。


■姉妹スレ
(AIとBI)技術的特異点と経済・社会等 1 (天国or地獄) [転載禁止]©2ch.net
http://wc2014.2ch.net/test/read.cgi/future/1427004849/

■関連スレ
人工知能
http://wc2014.2ch.net/test/read.cgi/future/1286353655/
0489YAMAGUTIseisei
垢版 |
2016/10/09(日) 13:00:13.86ID:bPMKmbZE
そう仰らずお手柔らかに
或いはご言外にこの事を仰っておいででしょうか
http://rio2016.2ch.net/test/read.cgi/future/1475655319/50
ttp://rio2016.2ch.net/test/read.cgi/future/1472305818/442-444
ttp://rio2016.2ch.net/test/read.cgi/future/1449403261/92-94
p://potato.2ch.net/test/read.cgi/bizplus/1472080728/807-812
p://rio2016.2ch.net/test/read.cgi/future/1472305818/576-
0490478
垢版 |
2016/10/09(日) 13:01:27.48ID:bPMKmbZE
>>>>>>>>01> YAMAGUTIseisei wrote ( <5291E913.3090709@hello.to> ) :
>>>>f1> 意味空間レンダリングシステム
>>>>f1>   準エミュレーション , AL , 細粒度クラスタレベル自律オブジェクト ※
>>>>f1>     発火パルス波形ベース
>>>>f1>       極細粒度 , 汎用
>>>>f1>     ニューロ演算器ベース
>>>>f1>       細粒度 , 汎用
>>>>f1>   シミュレーション , AI
>>>>f1>     言語辞書レベルベース
>>>>f1>
>>>>f1> ※ ニューラルカーネル , ニューロ OS , KJ カーネル ( Plain 社 )
>>>>f1> → OS レス OS , 自律 OS , 自律ネット
>>>>f1>
>>>>f1> YAMAGUTIseisei wrote:
>>>>>f1> 基礎研究例
>>>f1> Cell BE 神経回路
>>>><71> http://google.jp/?q=cell+b.e.%B8%D7%BD%C0+%90_%8Co%89%F1%98H
>>>><71> http://google.jp/search?q=cell+%B8%D7%BD%C0
>>><71> AAP ニューラル演算プロセッサ ( ストリーム型 1 ビット高汎用 GPGPU )
>>><71> http://google.jp/search?q=aap+neural+OR+simd&;lr=lang_ja
>>>><71>
>>>>>><71>
>>f1> YAMAGUTIseisei wrote:
>>>f1> リアルタイム分散 Ru?yOS ( Java 隠蔽変換 )
>n> JRu?yOS( JMTRON ベース ) TRON/PPC-SPE
>n> JRu?yOS( intent ベース ) MTRON/PPC-SPE
>n> JRu?yOS( JMTRON-VM ベース ) Aperios/MuseOS TRON/PPC-SPE
>n> JRu?yOS( intent ベース ) Aperios/MuseOS TRON/PPC-SPE
>>>f1>
>>>f1> リアルタイム分散 Ru?yOS
>>f> Ru?yOS RT-mru?y MTRON WinnyOS RT-Rite TRON ( St ) PPC-SPE
>>f> Ru?yOS RT-mru?y Aperios/MuseOS WinnyOS RT-Rite TRON ( St ) PPC-SPE
0492490
垢版 |
2016/10/10(月) 12:28:26.40ID:OXjHwZv7
>>>f1>
>>>><71> http://google.co.jp/search?q=RubyOS+OS
>>f1>
>>>f1> YAMAGUTIseisei wrote:
>>>><71> ※ Aperios/Apertos/MuseOS : スレッド制御リアルタイムクラスタ
>>f1>
>>>>f1> ※ Apertos eVilla/Be?S Pa?mOS6 SPURS/SPE
>>>>>>>>01> → 細粒度自動ローカル分散普遍浸透有機スレッド OS
>>>>>><71>
>>>>>><71> YAMAGUTIseisei wrote ( <53E5DE88.4020508@hello.to> ) :
>>><7> Ru?yOS/MTRON/Aper?os/Rite/WinnyOS/Tron/DSL-RMT/PPC-SPE
>>>>>><71>
>>>>>><71>
>>>>>><71>
>>>>>>>01> YAMAGUTIseisei wrote ( <53537792.8060407@hello.to> ) :
>>>>>>>>01> YAMAGUTIseisei wrote ( <52EE3EEA.1040502@hello.to> ) :
><71> YAMAGUTIseisei wrote ( <527E53C1.6070601@hello.to> ) :
>>>>>><71>     透過可視指向ラベリング ( アウトソース 互換 普遍 )
>>>>><71>
>>>>f1> 意味空間レンダリングシステム
>>>>f1>   準エミュレーション , AL , 細粒度クラスタレベル自律オブジェクト ※
>>>>><71>
>>>>f1> ※ ニューラルカーネル , ニューロ OS , KJ カーネル ( Plain 社 )
>>>>f1> → OS レス OS , 自律 OS , 自律ネット
>>>>><71>
>>>>>>><71> ※ 情報バリアフリー → 細粒度オブジェクト自律追跡
>>>>>>><71> → 人格移植システム ( 自律移植 / 自律融合 / ネット生命体 )
>>>>><71>
>>>>><71>
0494492
垢版 |
2016/10/11(火) 17:48:25.73ID:t+CFaJ/4
>>>>><71> 情報普遍変換基盤 ( 透過可視 細粒度普遍オブジェクト )
>>>>><71> ↓
>>>>><71> 情報バリアフリー
>>>>><71> ↓
>>>>><71> 相互乗入基盤 ( 有機生体頭脳 人格システム ネット生命体 )
>>>>><71>
>>>>>><71>
>>>>>>>01> 大自然普遍互換 ( 認識宇宙システム 有機天然ネット 根源意味リンクネット 縁 )
>>>>>>>01>   大自然普遍憑依基盤 ( 大自然融合 相互乗入 )
>>>>>>>01>     有機天然根源ネットダイビング ( 時間軸 )
>>>>>>>01>       論理物理ワープ 千里眼
>>>>>>>01>       BTRON/Ru?yOS : private ⇔ public
>>>>>>>01>     疑似入滅支援システム
>>>>>>>01>       対ブッダ融合支援システム
>>>>>>>01>         人格システム経由人格再構成対応
>>>>>>>01>           入滅済人格サルベージ ( ブッダ )
>>>>>><71>
>>>>><71>
0495478
垢版 |
2016/10/12(水) 17:59:51.81ID:z9X4vs5F
>>>>><71> YAMAGUTIseisei wrote:
>>>>>><71> 階層 疑似階層
>>>>>><71>   動的階層化 = 圧縮 ( インデックス化 ラベル化 = 要約 グループ化 )
>>>>>><71>     復号規則 ( 記録 自明 必然 既知 )
>>>>>><71>     透過可視指向ラベリング ( アウトソース 互換 普遍 )
>>>>>><71>       自律復号
>>>>><71>       第二世代誤り訂正 ( AI AL KJ 意味空間 ) = 復号
>>>>><71>         認識側誤り訂正 ( アウトソース ) = 認識復号 ※
>>>><71>           部分解候補 ( 認識補完 復号補完 )
>>>>><71>           認識成立
>>>>><71>             復号不要
>>>>>><71>     下流 放流 ( Vector )
>>>>>><71>     重複スキャン ( マージン重複 並列 )
>>>>>><71>   実装
>>>>>><71>     常時接続
>>>>>><71>     動的接続
>>>>>><71>       クライアントサーバ
>>>>>><71>       イニシエータ ターゲット
>>>>>><71>         ディスコネクト リコネクト
>>>>>><71>       チューリングマシンクラスタ
>>>>>><71>         ローカル
>>>>>><71>         リモート
>>>>><71> ※ 誤り訂正デコード : 推理 推論 推察 察し 岡目八目 ( 中高次ワープ演算 )
>><71>
>><71>
>><71>
0497495
垢版 |
2016/10/13(木) 19:40:37.49ID:3KA+6ziy
>>>>>><71> TRONCHIP レベルアトミックキュー ( 直交 透過可視 )
>>>>>>>>><71>   細粒度部品実身仮身 ( 多段間接アドレシッング )
>>>>>>>>><71>   プロセッサレベル アトミック 対応
>>>>>>>>><71>     拡張 BitVector
>>>>>>>>><71>       並列 RT-BitByteWordVector
>>>>>>>>><71>     チューリングマシン
>>>>>>>>><71>       拡張並列 RT チューリングマシン ※
>>>>>><71>         分散チューリングマシン
>>>>><71>           ローカル
>>>>><71>           リモート
>>n1> ※ WordVector テープ ( 挿入等 ) / ジャンプ / 通信 他
>>>>>>><71>
0500497
垢版 |
2016/10/14(金) 17:43:51.25ID:OH9zTl7R
>>>>>>><71> 実身仮身オブジェクト要素 Vector テープ
>>>>>>><71>   チューリングマシン要素 ( 隠蔽 非隠蔽 )
>>>>>>><71>     制御 , 放任
>>>>>>><71>     階層 疑似階層
>>>>>>><71>       ヘッド移動 ワープ効果 ( ジャンプ )
>>>>>>><71>     連携
>>>>>>><71>       同時双方向バブル系演算 ( 状態遷移 遺伝子等 )
>>>>>>><71>     インテリジェントテープ
>>>>>>><71>     動的状態テープ ( マシン )
>>>>>>><71> マルチプロセッサチューリングマシン
>>>>>>><71>   連携コヒーレンシ
>>>>>>><71>   インコヒーレンシ
>>>>>>><71>     動的
>>>>>>><71>       同時双方向バブル系演算 ( 状態遷移 遺伝子等 )
>>>>>>><71> ↓
>>>>>>><71> カーネルテープオブジェクト
>>>>>>><71> ↓
>>>>>>><71> 動的自律テープ
>>>>>>><71> ↓
>>>>>>>f> 動的自律遺伝子マシン基盤 ( TRON/PPC-SPE → 有機コンパイル )
>>>>>>><71>
>>>>>>><71>
>>>>>>><71> 動的 チューリングマシン
>>>>><71> http://google.jp/?q=%93%AE%93I+%C1%AD%B0%D8%DD%B8%DE%CF%BC%DD
>>>>>><71>
>>>>>><71>
>>>>>><71>
0501495
垢版 |
2016/10/16(日) 01:38:26.50ID:+gGlHDwt
>>>>>><71> 根源キュー ( 透過可視 )
>>>>>>>><71>   拡張 BitVector ( 実身仮身 アスペクト )
>>>>>>>><71>     拡張並列 RT チューリングマシン
>>>>>>><71>       環境 ( 可視 )
>>>>>>><71>       Vector アスペクト
>>>>>>><71>         Array アスペクト
>>>>>>><71>         String アスペクト
>>>>>>><71>           String クラス
>>>>>>><71>
>f1> ※ 多段間接…… - 仮身 - アスペクト - クラス イテレータ 他 オブジェクト
>>>>>><71>
>>>>>><71>
>>>>>><71>
0502478
垢版 |
2016/10/16(日) 14:47:19.21ID:+gGlHDwt
><71> YAMAGUTIseisei wrote ( <538AEA82.4040806@hello.to> ) :
>>><71> YAMAGUTIseisei wrote ( <52597E0B.3040207@x68k.net> ) :
>>>><71> AAP/SPE AI/AL クラスタ
>>>>>>><71> ↓
>>>><71> AAP/SPE 有機コンパイル ( 自生 / 3D プリンタ )
>>>>>>> 細粒度ライブラリベース回路 ( 最適化 )
>>>>>>> 平面有機回路 積層有機回路
>>>>>>><71> ↓
>>>>>>><71> ニューロダビング
>>>>>>><71> ↓
>>>>>>><71> 電子頭脳上位互換有機生体頭脳コンパイラ ( シリコン生命体他対応 )
>>>>>>><71>
>>>>>>><71> ※ 情報バリアフリー → 細粒度オブジェクト自律追跡
>>>>>>><71> → 人格移植システム ( 自律移植 / 自律融合 / ネット生命体 )
>>><71>
>>>>>>><71>
>>>>>>><71> TRON/OSCAR
>>>>>>><71> ↓
>>><71> eSOL ユビキタス Plain 他 ( 独自 OS , AI / AL )
>>><71> Gaio CATS
>>><71> 日本電算機 ( 準細粒度並列 , PPC )
>>><71> カプコン ヘキサドライブ ( 細粒度並列 , PPC-SPE )
>>>>>>><71> ↓
>>><71> アクセス 日立 ローランド ( 近細粒度並列 , Be?S )
>>><71> オリンパス Nec エプソン ブラザー カシオ アバールデータ
>>>>>>><71> Jaxa京セラRisoPlus村田Omronコニミノ
>>>>>>><71> TiacZoomヤマハOnkyo鈴木楽器DensoAisin豊田鈴木Jal他
>>>>>>><71> 信濃音響→本田三菱他Clarion→日産MazdaスバルIsuzu他
>>><71>
>>>>>>><71>
0503502
垢版 |
2016/10/17(月) 18:54:40.99ID:Bsmedhk4
>>>>>>f> SPE/PPC 現行命令セット縛り ( 256 KB , TRON 層 )
>>>>>><71> → 細粒度 必然 → 浸透スレッド ( 独立 直交 RT 透過可視 )
>>>>>>><71> → 細胞互換基盤 → SPE ニューロクラスタ
>>>>>>><71>
>>>>>>><71> ↓
>>>>>>><71> 人間用純国産電子頭脳前段基盤 ( 突破口 細粒度 )
>>>>>>><71>
>>>><71> ※ Aperios/Apertos/MuseOS : スレッド制御リアルタイムクラスタ
>>><71>
>>>>>>><71>
>>>>>>><71> Sony 社
>>>>>>><71> 動歩行ロボット QRIO/Aperios/Apertos
>>>>>><71> 省電実装 A?M HandheldEngine ( Clie/Pa?m )
>>>>>>><71>
>>>>>>><71> ※ Apertos eVilla/Be?S Pa?mOS6 SPURS/SPE
>>>>>>>>01> → 細粒度自動ローカル分散普遍浸透有機スレッド OS
>>><71> http://google.jp/?q=Aperios+%D8%B1%D9%C0%B2%D1+%B8%D7%BD%C0+%2DApertos
>>><71> http://google.jp/search?q=rmt+%C1%AF%CC%DF+%CF%D9%C1%BD%DA%AF%C4%DE
>>><71> http://www.google.co.jp/search?q=6809+63701
>>>>>>>01> http://google.co.jp/search?q=sega+sgl+polygon+OR+mori
>>>>>>><71>
>>>>>>><71> Sha?p 社
>>>>>><71> 奇跡的資源 ( RT 宮大工 ) → X68k 無料化済 , Power X 国有化 ?
>>>>>><71> DataDrivenMPU ( 省電 )
>>><71>
>>>>>>><71>
0504503
垢版 |
2016/10/19(水) 21:24:36.65ID:8QhoKRXz
>>><71> QRIO/Aperios SPURS/SPE/Cell Be?S/eVilla Pa?mOS6/Clie : ソニー ( 細粒度並列 )
>>>>>n> → マーベラス バンナム ( 細粒度 RT 並列分散 ? , PPC-SPE ? )
>>><71> TRON : 東芝 ( 近細粒度並列 , PPC-SPE ) 三菱 富士通 沖 松下 アプリックス 他
>>>>f> 日立 → セガ ( 細粒度並列 , PPC-SPE ) → Pioneer ホリ セイミツ 旧 Hu 他
>>>>f> Victor → 船井
>>><71> OSCAR : 東芝 Renesas 富士通松下 Canon 他
>>>>>>n> Power X ( Cell X ) : Softbank 電波新聞 Sps Sharp
>>>>>>n> → コナミ ( 細粒度 RT 並列分散 , PPC-SPE ) 任天堂 → Ricoh 池上 他
>01> AAP TAO : NTT
>>>>>>><71>
>>>>>>><71> ↓
>>>>>>><71> 純国産電子頭脳搭載ロボット連合布石 ( 国産 Cell 連合 )
>>><71>
>>>>>>><71>
>v> ※ Hum?n68k → Hum?nCell/PPC , Hum?nCell/ARM , Hum?nCell/Ja?a , Hum?nCell/AAP
>>>>>f> → Ja?a チップ下層 ≒ TRONCHIP → M ( I/J ) TRON ( 組込 下層 Aperios WinnyOS )
>>>>>f> → TRON/PPC-SPE クラスタ ( JIT , SoftwareCell , Amoeba FLIP 的層 )
>>>>>>><71> → 純国産電子頭脳前段基盤 ( 第二次ロボット産業 )
>>><71>
>>>>>>><71>
0505504
垢版 |
2016/10/20(木) 19:11:00.08ID:XE3cG6Lw
>>>>>>><71> ソニー○芝シャ○プ連合布石 ( Cell/PPC )
>>>n> ソニーバ○ナム連合 ( セリウス , SYSTEM357 , 細粒度 RT 並列分散 ? , PPC-SPE )
>>>>>>><71> ↓
>>>>>><71> Power X , VME64 的拡張機構構築済 ? ( ※ 同社ザウルス = JIT Ja?a )
>><71>
>>>>>>><71>
>>>>>><71> ソニーシャ○プ連合布石 → 幻のシャ○プ社 Power X 系譜 , 合流 ( PPC )
>>>>>>><71>
>>>>>>><71> ※ 第二次ロボット産業 ( 電子頭脳 ) , リアルタイムソフトウエア産業 , 奇跡的資源
>>><71>
>>>>>>><71>
>>>>>>><71> バンナムセガ辺りに遷移の流れ ?
>>><71>
>>>>>>><71>
>>>>>>><71> 初号 Cell , 長所短所
>>>>>>><71>
>>>>>>><71> 多 SPE → 長所
>>>>>>><71> 少 PPE → 短所
>>><71>
>>>>>>><71>
>>>>>>><71> Cell , 当初 , 不調
>>>>>>><71> 近年 , 開発 , 慣れ
>>><71>
>>>>>>><71>
>>>>>>><71> * 初回版 Cell
>>>>>>><71> * パワーアップ版 Cell
>>><71>
>>>>>>><71>
>>>>>>><71> 非互換
>>><71>
>>>>>>><71>
:
0506505
垢版 |
2016/10/21(金) 23:06:19.45ID:OUIka7BJ
>>><71>
>>><71>
>>><71>
>>><71> QRIO/Aperios SPURS/SPE/Cell Be?S/eVilla Pa?mOS6/Clie : ソニー ( 細粒度並列 )
>>>>n> → マーベラス バンナム ( 細粒度 RT 並列分散 ? , PPC-SPE ? )
>>><71> TRON : 東芝 ( 近細粒度並列 , PPC-SPE ) 三菱 富士通 沖 松下 アプリックス 他
>f> 日立 → セガ ( 細粒度並列 , PPC-SPE ) → Pioneer ホリ セイミツ 旧 Hu 他
>f> Victor → 船井
>>><71> OSCAR : 東芝 Renesas 富士通松下 Canon 他
>>n> Power X ( Cell X ) : Softbank 電波新聞 Sps Sharp
>>n> → コナミ ( 細粒度 RT 並列分散 , PPC-SPE ) 任天堂 → Ricoh 池上 他
>>01> AAP TAO : NTT
>>>>>><71>
>>><71> eSOL ユビキタス Plain 他 ( 独自 OS , AI / AL )
>>><71> Gaio CATS
>>><71> 日本電算機 ( 準細粒度並列 , PPC )
>>><71> カプコン ヘキサドライブ ( 細粒度並列 , PPC-SPE )
>>>>>>><71> ↓
>>><71> アクセス 日立 ローランド ( 近細粒度並列 , Be?S )
>>><71> オリンパス Nec エプソン ブラザー カシオ アバールデータ
>>>>>>><71> Jaxa京セラRisoPlus村田Omronコニミノ
>>>>>>><71> TiacZoomヤマハOnkyo鈴木楽器DensoAisin豊田鈴木Jal他
>>>>>>><71> 信濃音響→本田三菱他Clarion→日産MazdaスバルIsuzu他
>>>>><71>
>>>>>>><7>
>>>>>>><7> 👀
Rock54: Caution(BBR-MD5:0be15ced7fbdb9fdb4d0ce1929c1b82f)
0507506
垢版 |
2016/10/23(日) 02:00:34.71ID:Dlm82Fb1
>><71> 情報処理振興事業協会 NTT アルプス コマツ 富士ゼロックス 新光電気工業 ケンウッド
>><71> 横河電機 図研 日本信号 東光電気 矢崎 アルチザネットワークス 幸大ハイテック
>><71> バッファロー グローリー 島津 日本無線 ダイコク電機 アルパイン IHIエスキューブ
>><71> アイダエンジニアリング アイホン アドバンテスト アルプス電気 アンリツ産機システム
>><71> 市光工業 INAX SMK 三洋 大崎電気工業 海上自衛隊 加賀電子 キーエンス 北川鉄工所
>><71> 組込みシステム技術協会 ケーヒン 小糸製作所 神戸製鋼所
>><71> 雇用・能力開発機構高度職業能力開発促進センター サクサシステム サンデン 資生堂
>><71> シチズン JASPAR 情報処理推進機構 住友重機械工業 / 電気工業 ダイキン 大日本印刷
>><71> 大日本スクリーン製造 タダノシステムズ ディーアンドエム デュプロ テルモ 東海理化
>><71> ナカヨ通信機 ニッタン電子 日本光電工業 日本精機 日本アビオニクス 日本工営
>><71> 日本航空電子工業 日本製鋼所 日本たばこ産業 NEC NEC東芝スペースシステム
>><71> 日本電気航空宇宙システム ノーリツ鋼機 マクセル 福岡県産業科学技術振興財団
>><71> 富士機械製造 富士重工業 富士ソフト 富士電機 富士フイルム 安川情報システム
>><71> 安川電機 アズビル ユニデン 横河 理研計器 サトー ベックマン・コールター 楽天Edy
>><71> 日本ハム 江崎グリコ 森永 伊藤ハム 明治 東京国際エアカーゴターミナル コア
>><71> 日本システムウエア アットマークテクノ デジタルライフ推進協会
>><71> 福岡スマートハウスコンソーシアム 横浜スマートコミュニティ 長崎スマートソサエティ
>>01>
0508オーバーテクナナシー
垢版 |
2016/10/23(日) 03:04:49.36ID:JZcGKMaj
何このスレ
0509507
垢版 |
2016/10/23(日) 11:18:30.07ID:Dlm82Fb1
>>01> ネットワーク応用通信研究所 一般財団法人Rubyアソシエーション 島根県 松江市
>>01> 出雲市 福岡県 大阪府 大阪市 堺市 社団法人中小企業診断協会島根県支部
>>01> 公益財団法人しまね産業振興財団 一般社団法人組込システム技術協会 Asakusa.rb
>n> Matsue.rb RubyKaigi 日本Rubyの会 特定非営利活動法人軽量Rubyフォーラム
>>01> しまねOSS協議会 信州OSS推進協議会 福岡県Ruby・コンテンツビジネス振興会議
>>01> 福岡Rubyビジネス拠点推進会議 Rubyビジネス推進協議会 Rubyビジネス・コモンズ
>>01> ちゅうごく地域Rubyビジネス活用研究会 一般社団法人徳島県情報産業協会
>>01> 一般社団法人和歌山情報サービス産業協会 京都コンピューターシステム事業協同組合
>>v> 全国ソフトウェア協同組合連合会情報処理振興機構 近畿情報システム産業協議会
>>v> 近畿経済産業局 中国経済産業局 岡山県産業振興財団 一般財団法人関西情報センター
>>v> ハイテクノロジー・ソフトウェア開発協同組合 日本医師会 島根大学 中央大学
>>v> 東京大学 富士通システムズ・ウエスト CTCテクノロジー 日本郵政 中隆 FM.Bee
>>v> アルカディア・システムズ アルメディア・ネットワーク オープンソース活用研究所
>>v> コミュニティ・クリエイション 日立ソリューションズ インフォコム東日本
>>>>>>><7> NTTソルコ NTTコミュニケーションズ アジャイルウェア イーシー・ワン
>>>>>>><7> 伊藤忠テクノソリューションズ スナップショット ウエブリツク合同会社
>>v>
>>>>>>><7> 順不同 ( 除 Rubyビジネス推進協議会 Rubyアソシエーション 両会員 )
http://www.ruby.or.jp/#  http://shop.dreampower-jp.com/
0510385
垢版 |
2016/10/23(日) 11:19:57.65ID:Dlm82Fb1
>>385
http://pt.a fl.rakuten.co.jp/c/021225a1.d4223487/?url=http%3A%2F%2Fsearch.rakuten.co.jp%2Fsearch%2Fmall%2F%25E8%25A4%2587%25E9%259B%2591%25E7%25B3%25BB%2F-%2f
0511岩柳寛貴
垢版 |
2016/10/23(日) 15:01:15.83ID:KORqnCzs
俺は岩柳寛貴。
http://i.imgur.com/0nabROG.jpg
釣塔大学卒で職業は闇のブローカー。
http://www.choto.jp
http://i.imgur.com/rgRpdBV.jpg
東京生まれ東京育ち東京在住。
http://i.imgur.com/MDsggaf.jpg
母方の祖父は大日本帝国海軍大佐の皆森光一郎。
http://i.imgur.com/lKrNSu9.jpg
好物は好物は酒と金と女。
http://i.imgur.com/ynHD9ha.jpg
http://i.imgur.com/RqfKz5m.jpg
http://i.imgur.com/pnHhtH6.jpg
趣味はドライブ。
http://i.imgur.com/qdMkMk8.jpg
特技は素手喧嘩(ステゴロ)。
http://i.imgur.com/rt3Pldo.jpg
どうかよろしく。
0513YAMAGUTIseisei
垢版 |
2016/10/24(月) 22:35:09.45ID:trJeFV+a
Message-ID: <5664505D.3010401@hello.to>
Date: Sun, 06 Dec 2015 15:12:29 +0000
From: YAMAGUTIseisei <seisei@hello.to>
Organization: X-PlsDntToRmsMatzYktJlgTtiRbistAnd: http://yahoo.jp/UUNk3s?#Sponsor_-_CellBE
User-Agent: Mozilla/5.0 (BeOS; U; BeOS BePC; en-US; rv:1.8.1.17) Gecko/20080930 Thunderbird/2.0.0.17 ThunderBrowse/3.82 Mnenhy/0.7.6.0
Subject: Re: 簡易分散システム ( Was : Re: 純国産電子頭脳 )
Content-Type: text/plain; charset=ISO-2022-JP
Content-Transfer-Encoding: 7bit

YAMAGUTIseisei wrote:
>>> 外部 MPU ( ICE 風 )
>>>   ピンレベルエミュレーション( VHDI / UATA133 ケーブル )
>>>     GC 485 MHz PPC
>>>       GBA カートリッジ デジタル映像 GBP 端子 メモカ ディスク
>>     BeBox 133< MHz GeekPort ( D A/D D/A ) ATA PCI メモリ MPU
>>     DS 66< MHz ARM カートリッジ 映像
>>>     3DS 268 MHZ ARM メモカ 映像
>>     GBA 16< MHz ARM カートリッジ 映像 他
>>       下記 MD MCD に同じ
>>         ARM 信号流用 ( 変則クロック ? )
>>>     DC 200 MHz SH-4 PCI GDROM
>>     SS 28< MHz SH-2 カートリッジ 68k ( 除去直結 / SCSP ) CD Js 他
>>       GPU/DSP 系他並行動作
>>         VRAM 横取カートリッジ → VDP 回転拡縮面
>>           68k コプロ系 ※1 イメージイン系 他
>>       RGB コンバータ改造併用
>>     32X 23.011 - 23.3< MHz SH-2 カートリッジ
>>       外部 GPU 系並行動作
>>         メガ CD
>>         VRAM 横取カートリッジ
0514513
垢版 |
2016/10/25(火) 19:11:43.89ID:XrRruEMl
>>     MD MCD 12< MHz 68000 カートリッジ CD Js
>>       乗除算命令等専用 低速コプロ ( VDP コプロ命令等新設 )
>>         虫食ブロック転送 先行 OoO ( 待合せ )
>>           奇数アライン ( アドレスエラー 68017 )
>>       番外
>>         68k 信号流用 ( 変則クロック ? ) クラスタ
>>         下記外部 GPU 兼用 ( カートリッジ集約 )
>>     NEOGEO 12< MHz 68000 カートリッジ Js CD
>>       MD MCD に同じ
>>     3DO 12.5< MHz ARM OD Js
>>       GBA に同じ
>>     Palm 66< MHz DragonBall 600< MHz ARM SDHC CF 映像
>>     Clie 123< MHz HandheldEngine メモステ CF 映像
>>     Pre 600 MHz ARM SDHC 映像
>>     Foleo 416 MHz ARM CF SDHC Kb 映像
    VITA 44-222 ( -333-444 ) MHz ARM メモカ 映像
>>     Mac 3> GHz PPC PCI UATA メモリ MPU
>>     Qosmio 1.5<= GHz SpursEngine SDHC メモリ イーサ HDD 各端子
>     XaviX-2 98 MHz オリジナルアーキテクチャ RISC ( + ジオメトリエンジン )
>       マウス × 4 ライトガン × 4 プログラマブル・シリアル × 2
>       汎用タイマ / カウンタ × 2 アナログ入力 ( 10 ビット ADC × 4 )
>       NAND フラッシュ EEPROM
>>>     HDD ( クラッシュ済可 ) ? MHz SCSI/UATA/SATA
>>>     SCSI ターゲット ( クラッシュ済可 ) ? MHz >=32 ビットバス
>>     RAID 装置 / カード ? MHz SCSI ATA PCI 他
>>>     組込ボード ? GHz Cell ARM 他 PCI 汎用
>>>     ( AT ? GHz x86 PCI SCSI UATA/SATA PCI 系 メモリ イーサ 各端子 )
>>
>> ※1 トラップ疑似コプロ / コプロ命令付 000/010
>>
>> ※2 VDP DSP 統合 ( 含 AAP エミュレーション )
>
0515513
垢版 |
2016/10/26(水) 21:04:23.78ID:aW0etrpr
>
>
> YAMAGUTIseisei wrote ( <52D27D59.3000907@hello.to> ) :
>><7> YAMAGUTIseisei wrote:
>>><7> 並列リアルタイム簡易分散システム
>>><7>   I/O ポート直結
>>>>>>   I/O ポート非直結
>>>>>>     8 ビットモード時直系ノード最多基本 256
>>>>>>     制御メソッド
>>>>>>       データ転送経路
>>>>>>       プリンタ拡張モードエミュレート
>>>>>>         EPP エミュレート
>>>>>>           ディジーチェーン ( 7 ノード )
>>>>>>       拡張 SxSI
>>>>>>         プリンタポート等
>>>>>>         SCSI ( SASI ) ノード接続余地
>>>>>>           LUN → 数十ノード
>>>>>>         SCSI-2 16/32 ビット WIDE
>>>>>>       RS-232C SDLC リンクモード
>>>>>>         255 ノード
>>>>>>         RS-232C ピン流用モード切替
>>>>>>           SCC WR14-2 DTR ソフトウエア制御
>>>>>>         クロックアップモード動的抑制
>>>>>>           単純 74
>>>>>>             実績 FDD 2DD
>>>>>>       プリンタ端子他独自制御
>>>>>>         最大数万直系ノード
>>>>>>     memo
>>>>>>       RS-232C
>>>>>>         RTxC WR11-7 TRxC WR11-2 汎用クロック I/O
>>         パラレル RS-232C ( SATA ⇔ PATA )
>>           プリンタ端子 SASI 端子等々併用
0516515
垢版 |
2016/10/27(木) 20:50:33.31ID:s9gJQIYW
>>
>>>>>     制御ピン
>>>>>       イメージイン出力
>>>>>         外部 GPU モード切替
>>>>>       プリンタ
>>>>>         ストローブ
>>>>>         データ
>>>>>         入力
>>>>>           ビジー
>>>>>             割込
>>>>>       分散システム I/O モード切替回路
>>>>>         ジョイスティック切替 / RS-232C 切替
>>>>>       ノードアドレス指定
>>>>>       memo
>>>>>         RS-232C
>>>>>           SCC
>>>>>             WR14-2 DTR
>>>>>              RTxC WR11-7
>>>>>             TRxC WR11-2
>>>>     データ出力
>>>>       イメージイン ( 5 ビット )
>>>>       プリンタ ( 9 ビット )
>>>>       ジョイスティック 2 ( 7 ビット )
>>>>         ジョイスティック切替回路
>>>>       RS-232C ( SCC レジスタ直結ピン 2 ビット )
>>>>         分散システム I/O モード切替 1 ビット DTR
>>>>           本格的回路 → DTR データ用利用可
>>>     データ入力
>>>         ジョイスティック 2 ( 7 ビット )
>>>           ジョイスティック切替回路
>>>           ポート C 利用時 6 ビット
>>>         RS-232C ( 4 ビット )
0517516
垢版 |
2016/10/28(金) 19:01:40.72ID:3Mfj/+SF
>>>>>
>>>>   ビットオーダ動的選択
>>><7>   数千チャネル分散 → 演算力数万以上倍
>>><7>   各種演算 ( X68k 形式データ授受 )
>>><7>     スプライト BG 回転拡縮並列演算
>>><7>   並列メガ CD ( カートリッジスロット )
>><7>   ※ 含 8 ビットマイコン / パーコン / パソコン
>><7>
>><7>
>><7>
>>>>><7> Power X ( Cell X )
>>>>><7> GPU ボード ( セガ , 1024 bit 幅 VME64/128 ,
>>>>><7> Cell 系 GPU , ラスタスキャン型スプライト対応 )
>>><7>
>>><7> パターン面積にゆとり → 8192 ビット幅
>>><7> 混載 → 65536 ビット幅



--
YAMAGUTIseisei ( str_h__namae = { "sei" => "山口", "mei" => "青星" } )
http://goo.gl/OTTdoO#__Sponsor_-_MahouNoSeiki
heiwa furiisekkusu 1tu
0518513
垢版 |
2016/10/29(土) 22:59:49.49ID:TzHPP6ic
>> YAMAGUTIseisei wrote:
>>> x 倍速表示
>>>   低解像度表示
>>>     強制低解像度表示 ( 高フレームレート )
>>>   高解像度表示
>>>     解像度倍増 ( 低フレームレート )
>>>       X68030 Inside/Out P. 57 脚注
>>>         VRAM ラスタ単位分割演算
>>>           アナログフレームバッファ
>>>
>>>>>   余剰面積 → フリーエリア
>>>>   データ表示ストリーミング転送
>>>>     アミーガ VHS ストリーマ
>>>>     T 氏マイコンエミュレータ系ビデオキャプチャ転送
0519518
垢版 |
2016/10/31(月) 00:22:25.32ID:vn9QZV4q
>
>
>
> YAMAGUTIseisei wrote ( <5273ED7E.1030908@-68-.net> ) :
>> GPU 演算二毛作
>>   イメージイン端子ネイティブ
>>   大 fps ( 120 300 3000 ... )
>>     垂直同期周期間引
      CRTC パラメータ動的変更
>>         疑似ノーマル RGB 信号
>>       垂直同期信号マスク ( 垂直同期周期疑似間引 )
>>     コマ間引
>>       マスク
>>         黒表示
>>     ドットクロッククロックアップ
>>   ダミー垂直同期トリガ ※
>>     ノーマル仕様モニタ
>>       信号 操作 マスク
>>
>> ※ X1 信号動的変更 ( 演出 )
>> http://google.jp/search?q=CRTC+X1turbo+%91%E61%8F%CD
>>
>>
>>
0520518
垢版 |
2016/10/31(月) 20:50:36.45ID:vn9QZV4q
>>> YAMAGUTIseisei wrote:
>>>> 外部 GPU ( セカンダリ X68k )
>>>>   イメージイン端子ネイティブ
>>>>   入力
>>>>     ジョイスティック 2
>>>>       ジョイスティック兼用
>>>>     プリンタ ビジー
>>>>     RS-232C ( 外部クロック )
>>>>       TRxC RTxC DCD CTS 等
>>>>       簡易分散システムモード兼用
>>>>   出力
>>>>     プリンタ
>>>>       9 ビット
>>>>         G B4
>>>>         G3 R3 B3
>>>>     イメージイン
>>>>       5 ビット
>>>>         R
>>>>         G2 R2 B1
>>>>     3D スコープ
>>>>       2 ビット
>>>>         B I
>>>>       スコープ状態維持
>>>>         ラッチ ( 垂直同期信号ピン )
>>>>     ジョイスティック 2
>>>>       ジョイスティック兼用
0521520
垢版 |
2016/11/01(火) 22:58:13.62ID:fAyLV78/
>>>   3D スコープ端子非使用時 ( 2 ビット )
>>>     ジョイスティック 2
>>>       ジョイスティック兼用
>>     ハードウエアレベル切替入力パレット
>>>       イメージインクロック ( F/F IC )
>>         奇偶ドットパレット切替 ( 1 ビット時 )
>>       モニタ出力等 ( 合成 アナログ 1 - 2 ビット )
>>         映像信号 ( RGB 等 再帰追従切替 )
>>>         シースルーカラー端子
>>>           半透明領域
>>>       音声 同期 温度 モーション 他各センサ
>>       ジョイスティック
>>>
>>>
>>>
>>>>> 水平走査位置検出 ( 外部 GPU )
>>>>>   イメージインクロック
>>>>>     監視カウント
>>>>>     割込
>>>>>       プリンタ
>>>>>       RS-232C ( 外部クロック )
>>>>>         簡易分散システムモード兼用
>>>>>   低負荷 768 × 512 256 色 ( LPICL APICG )
>>>>>   縦ラスタ系処理
>>>>>
>>>>>
>>>>>
0522521
垢版 |
2016/11/03(木) 00:26:17.41ID:RBosk79V
>>>>> YAMAGUTIseisei wrote:
>>>>>> 外部 GPU
>>>>>>   スーパーインポーズ面
>>>>>>   回転拡縮 BG 面 ( セカンダリ )
>>>>>>       メガ CD ( AV 機器中継 ? 320 × 224 )
>>>>>>
>>>>>>
>>>>>>
>>>>>>> 外部 GPU
>>>>>>>   イメージイン端子ネイティブ
>>>>>>>   回転拡縮 G-VRAM
>>>>>>>     ハードウエアネイティブ回転拡縮
>>>>>>>       メガ CD ( FIFO / マルチポート RAM 中継 )
>>>>>>         ソフトウエアレベル編集可
>>>>>>> ※ メガドライブ スプライト BG 任意アドレス ( アミーガ )
>>>>>>
0523522
垢版 |
2016/11/03(木) 12:45:52.64ID:RBosk79V
>>>>>> 回転拡大縮小 ( メガ CD → イメージイン端子 )
>>>>>>   X68k 形式変換転送
>>>>>>   ハードウエアレベル 4 ビット × 4096 × 4096 ソース
>>>>>>   出力 320 × 240 ( 224 ) → 16 面合成 512 × 512 他
>>>>>>   X68k 側 65536 色モード
>>>>>>     X68k 側 320 ×240 時
>>>>>>       単純結合 → ソフトウエア単純縮小 ( 平均色 )
>>>>>>         640 × 480 ( 4 × 4 = 16 面 )
>>>>>>         320 × 480 ( 4 × 2 = 8 面 )
>>>>>>     X68k 側 384 × 256 ( 512 × 256 ) 時
>>>>>>       960 ( 640 ) × 720 中 768 ( 384 ) × 512
>>>>>>         36 ( 24 ) 面単純縮小
>>>>>>   X68k 側 256 色モード ( 変則設定 )
>>>>>>     X68k 側 768 × 512 時 ( LPICL APICG )
>>>>>>       変換ラグ ( 655536 色 256 色 VRAM マップ )
>>>>>>         冒頭数ライン分先行レンダリング ( 投機 )
>>>>>>     二画面同時転送 ? ( 変則設定 )
>>>>>>   X68k 側 16 色モード ( 変則設定 )
>>>>>>     4 ビット値無変換
>>>>>>     四倍拡大ソース 変換後 間引 ( メガ CD )
>>>>>>       プレーン重合せ ( X68k )
>>>>>>         先行レンダリング ( 投機 )
>>>>>>     四画面同時転送 ? ( 変則設定 )
>>>>>>   フレームバッファ → 300 fps ?
>>>>>>
0524523
垢版 |
2016/11/04(金) 20:25:18.29ID:O8dhrfC/
>>>>>> フリーエリア
>>>>>>   オーバスキャン表示範囲外
>>>>>>     非表示ライン ≒ 8 - 32 KB
>>>>>>       見做しスプライト ( 回転拡縮 )
>>>>>>         走査前スプライト定義
>>>>>>   表示範囲外
>>>>>>     システム予約領域 ( 期間 ) 候補 ( イメージイン )
>>>>>>       各ライン左 16 ( 24 ) 右 8 ( 0 ) ドット
>>>>>>       表示範囲内限定アクセス ?
>>>>>>         実画面 1024 × 1024 時除く
>>>>>>       変則設定余地 ?
>>>>>>     マスク
>>>>>>   パレット限定
>>>>>>     12 ビットパレット → フリーエリア 4 ビット
>>>>>>       回転拡縮スプライト
>>>>>>       音声合成
>>>>>>       他
>>>>>>
>>>>>> プレーン節約 ( GPU 側 )
>>>>>>   ソフトウエアレベル色調補完
>>>>>>     4 ビットプレーン 3 以下枚時
>>>>>>       フィールド単位色調 数万色
>>>>>>
>>>>>> スーパーインポーズ面同時出力 ( スプライト込 )
>>>>>>   スーパーインポーズ面埋込黒エリア
0525YAMAGUTIseisei
垢版 |
2016/11/04(金) 20:54:49.95ID:O8dhrfC/
> 815 : 745 (ワッチョイ babe-ryFP) 2016/10/24(月) 01:11:51.85 ID:8/b1cicB0
> 8о系ソケット互換 ARM 計画需要なし → 何がどうなるとそんな結論に ?
> 鯖向け様子見 → 64 bit 版もやり直しては如何か ( 命令普通化 → 悪い意味での性能厨乙 )
>
> どうせ面積を消費するなら 32 bit 命令的 64 bit 化で単純にハードウェアスレッド推進
> ( ARM 社だが TrustZone 利用のソフト並列 VM 系が困難だから無期先送り → そこはソニоを見習え )
>
>
> 8о系 → ARM に押されつつもそれなり以上に生き残る
> ( 分岐予測 超絶性能 ? → 恐らく設計の悲惨さ ( 失礼 ) が良い意味で裏目に出ている )
0528YAMAGUTIseisei
垢版 |
2016/11/05(土) 15:54:10.22ID:blQc2gwI
>> http://rio2016.2ch.net/test/read.cgi/future/1476925488/946-949# Part 43 強い AI ( AL ) 別候補

http://rio2016.2ch.net/test/read.cgi/future/1476925488/200-202
http://rio2016.2ch.net/test/read.cgi/future/1476925488/210
http://rio2016.2ch.net/test/read.cgi/future/1476925488/790# DNC

Ruby DSL
http://rio2016.2ch.net/test/read.cgi/future/1427220599/384

魂用 VM
ミウラ mruby 方式電子頭脳 VM ( 有機分散化前提超細粒度リアルタイム並列 )
http://rio2016.2ch.net/test/read.cgi/future/1449403261/93-94
0531YAMAGUTIseisei
垢版 |
2016/11/07(月) 22:55:00.99ID:AIXwnKii
Checko's Bookmarks
原來早就有PowerXCell 8i 的介面?了
http://checko.soup.io/post/4374554/PowerXCell-8i
August 02 2008 checko


而且還比QS22(5/14)還早...._A_a
http://www.fixstars.com/company/press/20080403.html
フィックスターズ、最新型Cell/B.E.を搭載したアクセラレータボードを発売
http://www.fixstars.com/products/gigaaccel180/
Cell搭載アクセラレータボード GigaAccel180

GigaAccel 180製品カタログ
Fixstars目前是請日本IBM做OEM、然後以整體服務包裝的方式銷售。
ex:
フィックスターズ、みずほ証券のデリバティブシステムをCell/B.E.で高速化に成功

http://ameblo.jp/mikisatoshi/entry-10103289680.html
ヘテロジニアス・マルチコアプロセッサの普及

這篇寫得真不錯....CELL的重心其實在於software managed cache/scratchpad memory的記憶體model,可以針對用途做到非常精細的控制,達到最高的效率,但是要達到這麼高的效率,顯然地需要長期且深入的optimize。
其實是在批判速成programmer生?速食code的弊害?....XD
0532531
垢版 |
2016/11/07(月) 22:56:16.27ID:AIXwnKii
----
http://www.realworldtech.com/forums/index.cfm?action=detail&;id=91674&threadid=91674&roomid=2
Topic: Updated CELL/BE roadmap
http://www-06.ibm.com/jp/solutions/deepcomputing/events/pdf/080610_Cell_Strat_JHC_Japan.pdf

- PowerXCell 32ii (2 x PPE' + 32 x SPE') is replaced by PowerXCell 32iv (4 x PPE' + 32 x eSPE)
- higher frequency (~3.8GHz)
- 100% backword compatible
- Performance on PPE significantly better
- Performance per SPE equal or better (Significantly better on applications that benefit from new instructions)
- Better inter-SPE latency
- More on-chip memory (Is it mean LS will be larger than 256KB?)
- Better main memory latency and bandwidth

http://forum.beyond3d.com/showthread.php?t=48722
Updated Cell roadmap

所以PowerXCell 32iv的強化有下列幾點:

1. PPE本身性能強化(同時數量?加;但是其實考慮原始的CELL的話,其實core比例是維持,然後PPE強化)
2. SPE新?指令強化、EIB效率改善(降低SPE間溝通的latency)
3. 可能有擴充Local Storage容量(引入SOI eDRAM?)
4. 記憶體系統升級
0533532
垢版 |
2016/11/07(月) 22:56:58.17ID:AIXwnKii
PDF被抽掉了所以找不到原文,三月的還沒有提到PowerXCell 32iv這個名字。
http://www-06.ibm.com/jp/solutions/deepcomputing/events/pdf/ibm.pdf

939 :MACオタ:2008/06/22(日) 00:27:13 ID:7EkjfsSX
6/10のセミナー資料、もう少し掘っていたら次世代CELLについて言及した別のがあったす。
http://www-06.ibm.com/jp/solutions/deepcomputing/events/pdf/080610_Cell_Strat_JHC_Japan.pdf
 ・従来型Cell/B.E.わ2009年に45nmプロセス化
 ・以前のロードマップにあった2*PPE + 32*SPEの"PowerXCell 32ii"わキャンセル。代わりに
  4*PPE + 32*SPEの"PowerXCell 32iv"へ。
 ・PowerXCell 32ivの世代でPPEに手を入れる -> PPE' へ
 ・同じくSPEわ"eSPE"に進化
 ・クロックも上げる、〜3.8GHz
 ・その他PowerXCell 32iv世代の特徴わ、下記の通り
  - 100% backward compatible
  - PPE性能わ大幅向上
  - SPEわ新命令追加以外わ現状並 (新命令セットを使用するソフトわ大幅に性能向上)
  - SPE間の通信レイテンシ削減
  - More on-chip memory (LS増量か?)
  - メインメモリアクセスの大域幅増強とレイテンシ削減

所以看來真的要用RAMBUS TBI(XDR3)了?放上1TeraFLOPS性能對1TB/s頻?....XD
考慮TBI的進程,也難怪在2010年才要推出。
(反倒是Larrabee和GPU都在2009年就要衝2TFLOPS了....但是記憶體頻?如果是用GDDR5的話,512bit + 5GHz也頂多還在320GB/s左右)
所以?先前才會傳出Larrabee打算用RAMBUS的新聞,他們畢竟知道這個差距很大。
0534533
垢版 |
2016/11/07(月) 23:04:16.61ID:AIXwnKii
就算有POWER7的加持,PPE'相對SPE來?還是個很慢的東西,追加PPE的數量對成本來?是很大的負擔。(畢竟PPE+L2直接等於4x SPE的面積)
PowerXCell 32iv,iv代表4個PPE。而設置回到4PPE+32SPE,這點與現在的CELL比例完全相同,有點回到過去"PE"這個組成單位的意味。
也就是?CELL未來實際的強化是透過底層指令追加與結構改善來達成;相對來?,過去2PPE + 32SPE有點透過提高平行化來提高運算密度的味道....這似乎暗示的是運算模式的性能改善被半導體技術之類的製造因素?過去了。
如果真的是採用XDR3(TBI)的話,相當於512bit可以取得1TB/s的頻?,等於?個CELL分到了256GB/s,
介面則從64bit XDR變成128bit XDR3、傳輸速度則從XDR的3.2Gbps(400MHz x 8),提升到XDR3的16Gbs(500MHz x 32),
等於記憶體頻?比例也大了十倍,幾乎和浮點性能達成1:1的比例,這下看起來反而更像過去的general purpose CPU...(這回還要換成DDR系來衝容量的話就更困難了....)

總之想?的是,x86 PC和HPC only的processor可以使用到的資金規模實在差太多了?.....XD

----
補充?高速的Software Render:

http://www.transgaming.com/products/swiftshader/
SwiftShader (DX9 class)

http://www.radgametools.com/pixomain.htm
Pixomatic Rendering Technology (DX7 class)

當然還有鼎鼎大名的Renderman。

一邊是記憶體頻?(可能)比較大但是沒有fix function;
一邊是(晶片八成比較大所以)比較有raw performance,可能有一些fix function但是記憶體頻?可能較小。其實我還蠻有興趣,到時候PowerXCell 32iv 和Larrabee?Software Rasterizer的時候?邊比較快....(前者2010年、後者2009年)
0535YAMAGUTIseisei
垢版 |
2016/11/08(火) 17:14:34.25ID:TGuKiqAY
>79 : オーバーテクナナシー 2016/10/20(木) 22:17:02.44 ID:/cm5eDtP
> http://pc.watch.impress.co.jp/docs/news/1025948.html

>86 : YAMAGUTIseisei 2016/10/20(木) 22:54:25.43 ID:XE3cG6Lw
> >>79
>> 基本最適化回路を複数 ry 並列 ry 設計 ry 、最適化回路間のデータの移動を極小化する構造 ry 高密度な並列 ry
>> 、基本最適化回路の内外で自由な信号のやりとりができる、全結合の構造 ry 多様な問題を扱う ry
>
> Google TPU ( や一部 D-Wave ) もだが AAP ( 系 ) のエッセンスを活かした ? 進化系
>http://rio2016.2ch.net/test/read.cgi/future/1473812514/455
> http://wc2014.2ch.net/test/read.cgi/future/1449498462/189
0538YAMAGUTIseisei
垢版 |
2016/11/10(木) 13:19:40.50ID:BsZjitog
http://rio2016.2ch.net/test/read.cgi/future/1478311208/374-376
学習済外部 DB 逐次連携 ( DNC ) ? ⇔ 別方式 日立跳躍学習

> オリオル・ビニアル研究員は、深層学習システム
> ( ry 構成要素の層のそれぞれの感度を調節することで物体を認識する仕組み)に記憶機能を追加した。
> 一般的に、深層学習システムは人工神経網の接続を微調整するために多くの画像が必要だ。


http://arxiv.org/abs/1606.04080
Google 翻訳 tnx

ワンショット学習のためのマッチングネットワーク
著者: オリオールVinyals 、 チャールズ・ブランデル 、 ティモシーLillicrap 、 Koray Kavukcuoglu 、 大安Wierstra
(Submitted on 13 Jun 2016) (2016年6月13日に提出)

要約: ry
本研究では、深い神経機能に基づいて計量学習からと外部メモリとのニューラルネットワーク
を強化する最近の進歩からのアイデアを採用 ry
私たちのフレームワークは、新しいクラスのタイプに適応するための微調整を不要に、
そのラベルに小さなラベルされたサポートセットと非標識の例をマッピングするネットワークを学習します。

私たちは、その後、および言語タスク(Omniglot、ImageNetを使用して)ビジョンに
ワンショット学習問題を定義します。
当社のアルゴリズムは、 ry Omniglot ry ImageNet ry 上のワンショット精度を向上 ry
ペンツリーバンクにワンショット・タスクを導入 ry 、言語モデリング上の同じモデルの有用性 ry
0539YAMAGUTIseisei
垢版 |
2016/11/11(金) 13:01:49.05ID:TfAJHR6G
This is the html version of the file https://numenta.com/assets/pdf/whitepapers/hierarchical-temporal-memory-cortical-learning-algorithm-0.2.1-jp.pdf .
Google automatically generates html versions of documents as we crawl the web.

Page 1

HIERARCHICAL TEMPORAL MEMORY
including
HTM Cortical Learning Algorithms

VERSION 0.2, DECEMBER 10, 2010
Numenta, Inc. 2010

Use of Numenta’s software and intellectual property, including the ideas contained in this
document, are free for non-commercial research purposes. For details, see
http://www.numenta.com/software-overview/licensing.php

翻訳 株式会社アルトーク 2011/1/25
出典: http://www.numenta.com/htm-overview/education/HTM_CorticalLearningAlgorithms.pdf
脚注はすべて訳者による注釈である。本書の改訂版を確認するには http://ai.altalk.com 参照。
0540538
垢版 |
2016/11/11(金) 13:03:13.50ID:TfAJHR6G
Page 2

Numenta 翻訳ライセンス(参考和訳)

Copyright (c) 2010, 2011 Numenta, Inc.

All rights reserved.

ここに含まれる文章、アルゴリズム、サンプルコード、擬似コード、及びその他の記述は、
Numenta Inc.が発行した hierarchical temporal memory (“HTM”) 技術に関する記述の翻訳な
いしこれに基づいて得られたものである。原著の著作権及びここで翻訳された HTM やそのアル
ゴリズムに関する特許権は Numenta が保有している。独立した HTM システムの開発及び使用
に関して、それが商用目的ないし製品化目的ではなく、研究目的である限り、Numenta はその
特許権を主張しないことに同意する。Numenta の特許権に抵触する商用目的ないし製品化目的
のいかなる HTM 技術の使用も、Numenta から商用ライセンスを取得しなければならない。

上記に基づいて Numenta は貴方に、商用目的ないし製品化目的の使用ではなく、研究目的に限
り、これらのアルゴリズム及び著作を使用することを認可する。前述の「商用目的ないし製品化
目的の使用」は、訓練された HTM ネットワークないしアプリケーションを後に商用目的ないし
製品化目的で適用することを意図している場合、HTM ネットワークを訓練することを含む。前
述の「商用目的ないし製品化目的の使用」はまた、商用目的ないし製品化目的で HTM 技術の出
力結果を使用ないし他者に使用を許可することを含む。この記述を頒布・出版・複製したあらゆ
る記述には、この翻訳ライセンスの全文が英文及び翻訳対象言語の両方で含まれていなければな
らない。

このライセンスは明示的にも暗黙的にも特許権の使用を何ら許可しない。ここで許可された翻訳
物の品質ないし正確さに関して Numenta は義務も責任も負わない。
0541540
垢版 |
2016/11/11(金) 13:06:13.08ID:TfAJHR6G
Page 4

最初にお読み下さい!
本書は、この資料のドラフトである。読者が知っておくべき事柄のうち、欠落して
いるものがいくつかある。

本書に含まれること:
本書は Numenta が 2010 年に開発した学習と予測に関する新しいアルゴリズムの
詳細を説明している。この新しいアルゴリズムについて、プログラマが理解でき、もし
望むならこれを実装可能なほど十分詳細に説明している。最初の章で概念説明をしてい
る。もし読者が Numenta についてよく知っていて、我々のこれまでの論文のいくつか
を読んだことがあるなら、それらは馴染み深いであろう。それ以後の章は新しい事柄に
ついて述べる。

本書に含まれないこと:
この新しいアルゴリズムの実装に関するいくつかの話題は、この初期の草稿に含ま
れていない。

- アルゴリズムの多くの側面は実装及びテストされているが、テスト結果については
述べられていない。
- アルゴリズムを実際の問題にどのように適用可能であるかについての記述はない。
センサーないしデータベースからのデータを、このアルゴリズムに適した分散表現
に変換する方法の記述が抜けている。
- アルゴリズムはオンライン学習ができる。オンライン学習を完全に実装するために、
ある特殊な状況下で必要となるいくつかの詳細は記述されていない。
- 執筆予定のその他の議論として次のものがある。疎分散表現の特徴に関する議論、
利用例・応用例、付録への引用。

我々は現時点で紹介可能な範囲でこの資料を作成した。他の人々もこれに関心を持
つだろうと考えたためである。意欲のある研究者であれば、この資料の欠落している部
分は、アルゴリズムを理解し実験をする上で妨げにならないだろうと考える。我々は今
後の進展に伴って随時この資料を改訂する。
0542541
垢版 |
2016/11/11(金) 13:21:57.48ID:TfAJHR6G
Page 5

目次

Numenta 翻訳ライセンス(参考和訳) .  .  .  .  . 2

序文 .  .  .  .  .  .  .  .  .  .  . 8
:
 ソフトウェアのリリース .  .  .  .  .  .  . 9
:
 Numenta 社について
 著者について .  .  .  .  .  .  .  .  . 10
:
第1章: HTM 概説 .  .  .  .  .  .  .  . 11
:
  階層構造 .  .  .  .  .  .  .  .  .  . 12
  リージョン .  .  .  .  .  .  .  .  . 15
  疎分散表現 .  .  .  .  .  .  .  .  . 16
  時間の役割 .  .  .  .  .  .  .  .  . 17
  学習 .  .  .  .  .  .  .  .  .  .  . 19
  推論 .  .  .  .  .  .  .  .  .  .  . 20
  予測 .  .  .  .  .  .  .  .  .  .  . 21
  行動 .  .  .  .  .  .  .  .  .  .  . 23
 HTM の実装に向けての進捗状況
0543542
垢版 |
2016/11/11(金) 13:22:43.06ID:TfAJHR6G
第2章: HTM 大脳皮質性学習アルゴリズム .  .  .  . 24
:
  セル状態
  樹状突起セグメント .  .  .  .  .  .  .  . 25
  シナプス
 概要 .  .  .  .  .  .  .  .  .  .  . 26
 共通概念 .  .  .  .  .  .  .  .  .  . 32
  二値ウェイト
  永続値 .  .  .  .  .  .  .  .  .  . 33
  樹状突起セグメント
  シナプス候補
  学習
0544542
垢版 |
2016/11/11(金) 13:24:41.00ID:TfAJHR6G
Page 6

 空間プーリングの概念 .  .  .  .  .  .  .  . 34
:
 時間プーリングの概念 .  .  .  .  .  .  .  . 36
:
 一次と可変長のシーケンスと予測 .  .  .  .  .  . 39
第3章: 空間プーリングの実装と疑似コード .  .  .  . 43
  初期化
  フェーズ 1: オーバラップ .  .  .  .  .  .  . 44
  フェーズ 2: 抑制
  フェーズ 3: 学習
 データ構造と補助関数 .  .  .  .  .  .  .  . 46
第4章: 時間プーリングの実装と疑似コード .  .  .  . 48
 時間プーリング疑似コード: 推論だけのバージョン
:
 時間プーリング疑似コード: 推論と学習を含むバージョン.  . 49
:
 実装の詳細と用語説明 .  .  .  .  .  .  .  . 52
0545544
垢版 |
2016/11/11(金) 13:26:01.38ID:TfAJHR6G
付録 A: 生体ニューロンと HTM セルの比較   .  .  .  . 57
 生体ニューロン
  細胞体 .  .  .  .  .  .  .  .  .  . 58
  主要樹状突起
  末梢樹状突起
  シナプス .  .  .  .  .  .  .  .  .  . 59
  ニューロンの出力 .  .  .  .  .  .  .  . 60
 単純な人工ニューロン
 HTM セル .  .  .  .  .  .  .  .  .  . 61
  主要樹状突起
  末梢樹状突起 .  .  .  .  .  .  .  .  . 62
  シナプス .  .  .  .  .  .  .  .  .  . 63
  セル出力
:
付録 B: 新皮質の層と HTM リージョンの比較.  .  .  . 65
 新皮質の神経回路網
0546544
垢版 |
2016/11/11(金) 13:27:10.51ID:TfAJHR6G
Page 7

  層 .  .  .  .  .  .  .  .  .  .  . 66
  リージョンの違いによる層のバリエーション .  .  .  . 67
  カラム .  .  .  .  .  .  .  .  .  . 68
  ミニカラム .  .  .  .  .  .  .  .  . 69
  カラム反応の例外 .  .  .  .  .  .  .  . 70
 なぜ層とカラムがあるのか? .  .  .  .  .  .  . 71
 異なる層が何をするのかに関する仮説 .  .  .  .  . 72
  HTM リージョンは新皮質の何に相当するか? .  .  .  . 75
:
0547546
垢版 |
2016/11/11(金) 13:28:24.59ID:TfAJHR6G
Page 8

序文

人間には簡単にできて、コンピュータには今のところできないようなことがたくさ ry

Hierarchical Temporal Memory (HTM) は、新皮質がこの様な機能を発揮する様子を
モデル化する技術である。 HTM は人間と同等あるいはそれ以上の多くの認識性能 ry

ry 1章は HTM ry 階層構造 ry 、疎分散表現1、時間的な変化に基づく学習 ry
2章は HTM 大脳皮質性学習アルゴリズム2 ry
3章と第 4 章は HTM 学習アルゴリズムの疑似コードを、
空間プーリング及び時間プーリングの2つのパート ry
第2章から第4章を読めば、熟練したソフトウェア技術 ry 実装して実験 ry

1 sparse distributed representation。本書を理解する上で重要な概念だが、
冒頭で述べられているように、残念ながら本書では説明されていない。
理論的基礎は Pentti Kanerva 著 Sparse Distributed Memory に詳しい。
Kanerva 氏は Jeff Hawkins 氏が設立した Redwood Neuroscience Institute
(現在は Redwood Center for Theoretical Neuroscience)の研究員。
2 HTM cortical learning algorithms
0548547
垢版 |
2016/11/11(金) 13:29:50.80ID:TfAJHR6G
Page 9

ソフトウェアのリリース

ry ソフトウェアリリースは 2011 年中頃を予定している。

以前の文書との関係

HTM 理論の一部は 2004 年の On Intelligence3、Numenta 社から発行された
ホワイトペーパー、Numenta の従業員が執筆した論文など ry
2章から第4章で述べている HTM 学習アルゴリズムは、これまで発表されたことはない。
この新しいアルゴリズムは、Zeta 1 と呼ばれていた我々の第一世代アルゴリズムを置き換 ry
新しいアルゴリズムのことを “Fixed-density Distributed Representations” ないし “FDR”
と呼んでいた ry
HTM 大脳皮質性学習アルゴリズム4、あるいは単に HTM 学習アルゴリズムと呼んでいる。

我々は、Numenta 社創設者の一人である Jeff Hawkins と Sandra Blakeslee によって書かれた
On Intelligence ry この本は HTM という名前で述べてはいないものの、
それは HTM 理論とその背景にあるニューロサイエンスについて、
読みやすくかつあまり技術よりにならずに説明している。On Intelligence が執筆された当時、
我々は HTM の基本原理を理解していたが ry 実装する方法を知らなかった。 ry

Numenta 社 ry

Numenta, Inc. (www.numenta.com)は HTM 技術を商業的ないし学術的利用のため ry
進捗及び発見を完全に文書化している。我々はまた、我々が開発したソフトウェアを
他の人が研究目的や商業目的で利用できるように提供 ry
アプリケーション開発コミュニティが立ち上がることを支援 ry
Numenta 社のソフトウェアや知的所有権を研究目的で自由に利用

3 邦訳 「考える脳 考えるコンピューター」ランダムハウス講談社
4 HTM Cortical Learning Algorithms
0549548
垢版 |
2016/11/11(金) 13:31:18.45ID:TfAJHR6G
Page 10

してよい。我々は商業目的での技術サポートの提供、ソフトウェアライセンス販売、
知的所有権のライセンス販売で収益を得ている。
我々は常に開発パートナーを求めており、彼らと我々自身の成功 ry
Numenta 社はカリフォルニア州 Redwood City に拠点をおき、自己資本 ry

著者 ry

本書は Numenta 社の従業員の協力と努力 ry 名前は改訂記録 ry
0550549
垢版 |
2016/11/11(金) 13:32:14.65ID:TfAJHR6G
改訂記録

各版の主な変更点 ry 。細かな修正や整形などは ry

版  日付  変更点  主な著者

0.1   2010/11/9
1. 序文、1,2,3,4 章、用語集の初版
Jeff Hawkins, Subutai Ahmad, Donna Dubinsky

0.1.1   2010/11/23
1. 第 1 章のリージョンの節で、レベル、カラム、層などの用語を明確化するため編集した
2. 付録Aの初版
Jeff Hawkins

0.2  2010/12/10
1. 第2章: 明確化のため修正
2. 第4章:行番号を修正、37行と39行のコードを修正
3. 付録Bの初版
Hawkins Ahmad Hawkins
0551549
垢版 |
2016/11/11(金) 13:33:22.53ID:TfAJHR6G
Page 11

第1章: HTM 概説

Hierarchical Temporal Memory (HTM) は、新皮質の構造的・アルゴリズム的性質
を捉えることを目指した機械学習技術である。

ry 。新皮質は実に均一なパターンのニューラル回路 ry

ry 小さなサブセットを実装 ry 今後より一層多くの理論が実装されるだろう。
現在我々は、新皮質の商業的ないし科学的価値のうちの十分なサブセットを実装したと信じる。

HTM のプログラミングは伝統的なコンピュータプログラミングとは異なる。 ry
HTM はセンサーから得られたデータの流れに触れることで訓練される。
HTM の能力はそれがどのようなデータに触れたかによって ry

ry 「ニューラルネ ry 」という用語は非常に多くのシステムで用い ry 不用意に使えない。
HTM がモデル化するニューロン(HTM ではセル5と呼ぶ)は、
カラム6、層7、リージョン8、階層構造9の中に配置 ry
HTM は基本的にメモリベース ry 。HTM ネットワークは時間的に変化する
たくさんのデータによって訓練され、多くのパターンとシーケンス10の蓄積に依存している。
データを格納及びアクセスする方法は、一般にプログラマが使用する標準的なモデルとは論理的に異 ry
。伝統的なコンピュータメモリはフラット ry 時間に関する概念を持たない。 ry

5 cell
6 column
7 layer
8 region
9 hierarchy
10 sequence。連続して起こる事柄、ないしその順序を意味する。
0553yamaguti~貸
垢版 |
2016/11/12(土) 20:31:44.14ID:VjIvu7PJ
松田先生ご資料 Page 8
http://webcache.googleusercontent.com/search?q=cache:www.ssken.gr.jp/MAINSITE/event/2016/20161028-joint/lecture-03/SSKEN_joint2016_MatsudaTakuya_presentation.pdf#8

PEZY Computing/ExaScaler/Ultra Memory3社連合+WBAI+Project N.I. 汎用人工知能開発・特異点創出ロードマップ
旧版 http://news.mynavi.jp/articles/2016/05/20/deep_insights/001.html

次世代スパコン PEZY Computing/ExaScaler/UltraMemory
2017年中? → 更新 2017年6月
100 PetaFLOPSスパコン(プレ・エクサスケール)
・世界初の100 PetaFLOPS
・超メニーコア「PEZY-SC2」
・磁界結合積層DRAM「UM1」
・液浸冷却(二重合)
2019年中? → 更新 2018年11月
1 ExaFLOPSスパコン
(エクサスケール)
・世界初の1 ExaFLOPS
・超々メニーコア「PEZY-SC3」
・磁界結合積層DRAM「UM2」
・液浸冷却(三重合+熱音響)

前特異点創出 2025年頃
0554553
垢版 |
2016/11/12(土) 20:32:13.98ID:VjIvu7PJ
人工知能エンジン Deep Insights
2018年
「仮説立案までを行える新人工知能エンジン」
・世界最高演算性能
・世界最高消費電力性能
・世界最高メモリ帯域
・現在の1,000倍超の性能
・Edge側、Server側双方
・自動運転等にも適応化
「新」産業革命での当面の競争力確保 2020年頃

汎用人工知能 Project N.I.
2020年頃
汎用人工知能用ハードウェア開発
・磁界結合で無線結合
・超極薄ウェハ積層
・Connectome機能実現
2030年頃
汎用人工知能
(世界初のAGI)
・マスターアルゴリズム
・ソフトウェアレス
・自己進化機能

特異点創出
0555551
垢版 |
2016/11/13(日) 11:13:59.03ID:5tF5+oR3
Page 12

ry 。HTM のメモリは階層的な構造であり、時刻の概念が内在している。
情報は常に分散型の様式で保存される。HTM の利用者は階層のサイズを指定し、
何に対してそのシステムを訓練するのかを決める。 ry

HTM ネットワークは ry 、階層構造、時間と疎分散表現( ry )の主要機能を包含する限り、
我々は汎用的なコンピュータを使ってモデル化することができる。
我々はいずれ、HTM ネットワークに特化したハートウェアを作ることになる ry

本書では我々は HTM の特徴と原理を、人の視覚・触覚・聴覚・言語・行動を例にして表す。
ry 。しかしながら、HTM の能力は汎用的であることを心に留め ry
。HTM は学習と予測の機械であり、様々な種類の問題に適用可能である。

HTM 原論

ry なぜ階層的な組織が重要なのか、HTM のリージョンはどのように構成されるか、
なぜデータを疎分散表現で格納するのか、なぜ時間ベースの情報がクリティカルであるのか。

階層構造
ry 。リージョンは HTMにおける記憶と予測の主要構成要素 ry 。
通常、各 HTMリージョンは階層構造の 1 レベルを表す。
階層構造を上がるに伴って、常に集約11がある。
子リージョンの複数の要素が親リージョンの一つの要素に集約 ry
階層構造を下がるに伴って、フィードバック接続による情報の発散12がある。
(リージョンとレベルはほとんど同義 ry 。リージョンの内部的な機能 ry 「リージョン」の用語 ry
、特に階層構造の中でのリージョンの役割を指すときに「レベル」の用語を用いる)

11 convergence
12 divergence
0556555
垢版 |
2016/11/15(火) 01:13:22.00ID:miLjs+zj
Page 13

図 1-1 4階層の階層構造に配置された4つの HTMリージョンを単純化して表した図。
情報は階層間及び階層内部で通信 ry

複数の HTM ネットワークを結合することもできる。 ry 。
例えば、一つのネットワークが音声情報を処理し、他 ry が映像情報を処理する場合 ry
。各個別のネットワークがトップに向かうにつれて集約 ry

図 1-2 異なるセンサから集約するネットワーク
0557556
垢版 |
2016/11/15(火) 17:25:53.05ID:miLjs+zj
Page 14

階層 ry 効率 ry 各レベルで学習されたパターンが上位のレベルで組み合わせて再利用 ry
学習時間とメモリ消費を非常に節約する。
説明のため、視覚 ry 。階層構造の最下位レベルでは、
脳は縁13や角などの視覚のごく一部分に関する情報を格納する。
縁は ry 基本的な構成要素である。これらの下位レベルのパターンは中間レベルで ry
曲線や模様などのより複雑な構成要素に集約される。
円弧は耳の縁 ry 車のハンドル ry カップの取っ手 ry
。これらの中間レベルのパターンはさらに集約されて、頭、車、家などの
高レベルな物体の特徴を表す。
高レベルな物体 ry 、その構成要素を再度学習する必要がなくなる。

ry 単語を学習 ry 文字や文節、発音を再度学習する必要はない。

階層構造間で表現を共有 ry 、予期される行動の一般化にもなる。
ry 動物を見 ry 、口や歯を見 ry 食 ry 噛 ry 予測 ry
。階層構造により、 ry 新しい物体がその構成要素が持つ既に分かっている特徴を
引き継いでいることを知ることができる。
0558557
垢版 |
2016/11/15(火) 17:26:54.57ID:miLjs+zj
一つの HTM 階層構造はいくつの事柄を学習 ry ?
言い換えれば、階層構造にはいくつのレベルが必要 ry ?
各レベルに割り当てるメモリと、必要なレベル数の間にはトレードオフ ry
HTM は入力の統計及び割り当てられたリソースの量とから、
各レベルの最適な表現を自動的に学習 ry
多くのメモリを割り当 ry レベルはより大きくより複雑な表現を構成し、
従って必要となる階層構造のレベルはより少 ry
少ないメモリ ry 小さく単純な表現を構成し、 ry レベルはより多 ry

ここからは、視覚の推論14のような難しい問題について述べる
(推論はパターン認識と似 ry )。しかし多くの価値ある問題は視覚より単純で、
一つの HTM リージョンでも十分 ry
Web ry どこをクリックするか予測 ry
。この問題は、一連の Web クリックのデータをHTM ネットワークに流し込 ry
。この問題では空間的階層構造はわずか ry 。解決策は主に時間的な統計 ry
一般的なユーザのパターンを認識することで、 ry どこをクリックするかを予測 ry

13 edge。へり・ふち。
14 inference
0560yamaguti~貸
垢版 |
2016/11/16(水) 23:15:42.85ID:om/S71rA
http://rio2016.2ch.net/test/read.cgi/future/1478753976/795
> 795 :オーバーテクナナシー:2016/11/16(水) 11:52:11.84 ID:BYy/Er5p
> 【 考察メモ 】深層学習モデル設計者 が、人間 脳の神経回路(コネクトーム)
> 形成・変容メカニズム から 学ぶべきこと、学ぶべきでないこと
> http://qiita.com/HirofumiYashima/items/abd68a6070a6ddf27ec2

http://rio2016.2ch.net/test/read.cgi/future/1478753976/844
> 844 : yamaguti~kasi 2016/11/16(水) 21:47:25.64 ID:om/S71rA
> >>795
>> あらゆる方向に(直交格子座標でなく)ニューロンを並べ ry すべての組み合わ ry
>> 「結合あり(非零の結合荷重)・結合なし(零の結合荷重)を定義」
>> すると、ほとんどのニューロン ry 結合荷重は、零になり、疎な多次元行列 ry 計算量
> http://rio2016.2ch.net/test/read.cgi/future/1427220599/551#558
> http://webcache.googleusercontent.com/search?q=cache:numenta.com/assets/pdf/whitepapers/hierarchical-temporal-memory-cortical-learning-algorithm-0.2.1-jp.pdf#16
>
>> 『コネクトーム:脳の配線はどのように「わたし」をつくり出すのか』本 ry 『再』配線 ry
>> ・ ry 結合の軸索 or 樹状突起を切り落とす(=結合荷重を零に ry と、
>> ・ ry 存在しなかった ry 樹状突起(軸索も?)を生長させる(結合荷重を零から非零に ry
>> との同時発生
> #25#26#33-36#75
0561557
垢版 |
2016/11/17(木) 21:05:37.42ID:G0S5ouMa
Page 15

まとめると、階層構造は学習時間 ry メモリ消費を節約し、一般化 ry
しかしながら、単純な予測問題の多くは一つの HTM リージョンでも解決 ry

リージョン
階層構造に連結されたリージョン15の表現は、生物学から ry
新皮質は厚さ 2mm ry 。生物学では主にそれらが互いにどのように接続 ry
基づいて、新皮質を異なる領域ないしリージョンに区分けする。
あるリージョンはセンサから直接入力 ry
、他のリージョンは他のいくつかのリージョンを経由 ry
。階層構造を決 ry ージョ ry ョンへの接続関係 ry

新皮質のすべてのリージョンの細部は似 ry
サイズや階層構造の中のどこに位置 ry 違 ry 、その他は似ている。
厚さ 2mm の新皮質リージョンを縦にスライスしたなら、6 つの層 ry 。
5 つはセルの層で、1 つはセルではない層である(少しの例外 ry )。
新皮質リージョンの各層はカラム状に数多くの相互接続されたセルがある。

HTM リージョンもまた、高度に相互接続されたセルがカラム状に配列された皮 ry
新皮質の第 3 層はニューロンの主要なフィード・フォワード層である。
HTM リー ry のセルはおおまかに言えば新皮質のリー ry 3 層にあるニューロンと等価 ry

図 1-3 HTM リージョンの区画。 ry 。セルは二次元のカラム状 ry
図では、1 カラム当たり 4 つのセル ry 小さな区画 ry 。各カラムは入力

15 region。体の部位、局部など ry
0562561
垢版 |
2016/11/18(金) 23:35:37.68ID:fnVQMg28
Page 16

の一部に接続され、各セルは同一リージョン内の他のセルに接続する( ry 図 ry ない)。
この HTM リージョン及びそのカラム構造は新皮質リージョンの一つの層に等価 ry

HTM リージョンは新皮質リージョンのほんの一部と等価であるに過ぎないものの、
複雑なデータ列の推論と予測 ry 多くの問題に有益 ry

疎分散表現
新皮質のニューロンは高度に相互接続しているが、わずかなパーセンテージのニューロン
だけが一度にアクティブになるように抑制ニューロンによって保護されている。
よって脳内の情報は常に、数多く存在するニューロンのうちのわずかなパーセンテージ
のアクティブなニューロンによって表されている。この様なコード化は「疎分散表現」 ry
「疎」とは、わずかなパーセンテージのニューロンだけが一度にアク ry
。一つのアクティブなニューロンは何らかの意味表現に関わっているが、
いくつかのニューロンの文脈の中で解釈されて初めて完全に意味 ry

ry HTM リージョンの記憶の仕組みは疎分散表現に依存 ry 。
ry 入力 ry 疎であるとは限らないので、HTM リージョンが最初に ry 疎分散表現に変換 ry

ry リージョンが 20,000 ビットの入力 ry
。入力ビットの中の”1”や”0”の割合は、時間と共に非常に頻繁に変化 ry
ry 、またあるときは 9,000 個のビットが”1”であったりする。
HTMリージョンはこの入力を 10,000 ビットの内部表現に変換して、
入力 ry の 2%にあたる 200 ビットが一度にアクティブになるようにする。
ry 入力が時間と共に変化するに従って、内部表現もまた変化するが、
10,000 ビットのうち約 200 ビットが常にアクティブになる。

リージョン内で表現可能なものの数よりも起こりうる入力パターンの数の方が
ずっと大きいから、この処理によって多くの情報が失 ry 、と思 ry
。しかしながら、どちらの数も途方もなく大きい。
ry どのようにして疎表現を作成 ry 後述する。 ry 情報のロスは ry 問題にならない。
0563562
垢版 |
2016/11/19(土) 21:31:34.61ID:gXSL1qpI
Page 17

図 1-4 HTM リージョンのセルが疎分散的にアクティブ ry

時間の役割
時間は、学習・推論・予測において極めて重要 ry

時間を用いなければ、我々は触覚や聴覚からほとんど何も推論できない。
ry 目が不自由だとして、誰かが貴方の手の上にりんごを置い ry
。りんごの上で指を動かせば、触覚から得られる情報が常に変化しているにも関わらず、
ry 貴方が持つ「りんご」という高レベルの認識 ― は変化しない。しかし ry
手や指先を動かしてはいけない ry レモンではなくりんごであると識別するのは非常に難 ry

同じことは聴覚 ry 。変化しない音はわずかな意味しか持たない。
「りんご」という言葉や、誰かがりんごを噛んだときの音などは、
時間と共に素早く順序的に変化する数十から数百の音階の列 ry

視覚は対照的に、混在したケースである。 ry 一瞬だけ ry でも識別可能 ry
必ずしも時間的な入力の変化を必要としない。しかし ry
常時、目や頭や体を動かしており、物体もまた周囲を動き回 ry 。素早 ry 視覚的変化
の中から推論する我々の能力は、視覚の統計的な特徴と長年の訓練によってもたら
0564563
垢版 |
2016/11/20(日) 22:51:17.90ID:gBNtPa9o
Page 18

される特別なケース ry

学習について見てみよう。 ry HTM システムは訓練の間、時間的に変化する入力に触 ry
。視覚では静的な画像の推論がときには可能なものの、
物体がどのようなものであるかを学習するため ry 変化する様子 ry 犬が ry 走ってくる様子 ry
網膜に一連のパ ry 、数学的に言えばそれらのパターンはほとんど似ても似つかない。
脳はこれらの異なるパターンが同じ ry 順序的な変化を観察することによって知る。
時間はどの空間的なパターンが一緒に現れるかを教えてくれる「先生」である。

センサから得られる入力が変化するだけ ry 無関係な入力パターンが続けて現れても
混乱するだけ ry 。また、ry 、非人間的なセンサも ry 適用できる点にも注意 ry
。もし発電所の温度・振動・雑音のパターンを認識するように HTM を訓練 ry
これらのセンサの時間的な変化からもたらされるデータで訓練 ry

ry HTM ネットワークは多くのデータで訓練 ry 。HTM アルゴリズムの仕事は、
データの時系列の流れ ry どのパターンに続いて ry ーンが現れるかというモデルを構築 ry
。この時系列がいつ始まりいつ終わるのかがわからないので、この仕事は難しい。
同時に複数の時系列が重なりあって起こることもある。
学習は継続的に行われ、またノイズがある中で行われなければならない。

シーケンスの学習と認識は予測を形成する基準 ry ーンが他のどのパターンに続くかを
HTM が学習すれば、 ry 現在の入力とその直前の入力に対して
次にどのパターンが現れる可能性が高いかを予測 ry

HTM の 4 つの基本的な機能に戻ろう:学習・推論・予測・行動16である。
各 HTMリージョンは最初の 3 ry 、学習・推論・予測を実行 ry しかし ry 行動は異なる。
生物学によれば、多くの新皮質のリージョンが行動を形成 ry
しかし我々は、多くの興味深いアプリケーションにおいてこれは重要ではないと信

16 behavior
0565yamaguti~貸
垢版 |
2016/11/21(月) 23:55:02.41ID:6/tm5rB/
>>554
AI エンジン ハードウェア
http://news.mynavi.jp/articles/2016/05/20/deep_insights/001.html
> 高効率の人工知能ハードウェアを開発するDeep Insightsを創立 ry
> 開発するハードウェアはノイマン型 ry Deep Learningなど ry 大幅に高速化 ry
> 7nmプロセスを使って速度と集積密度の双方を上げることで10倍、
> 磁界結合による ry を多チャンネル化(メモリ帯域100TB/s)してダイ上に ry 10倍、
> ダイナミックな計算精度変更を可能にして、低精度演算 ry 10倍 ry 全体では1,000倍
0566yamaguti~貸
垢版 |
2016/11/22(火) 23:37:39.81ID:fDw5z9zc
> ダイナミックな計算精度変更

一例 URR ( 浜田穂積先生 )
0567564
垢版 |
2016/11/23(水) 12:51:21.88ID:IM1cuRG2
Page 19

じている。よって行動は現在の HTM の実装に含まれていない。 ry

学習
HTM リージョンは ry パターンとパターンのシーケンスを見つけることで、
その世界を学習する。 ry 入力が何を表しているのかを「知って」はいない。
ry 統計的 ry 入力ビット ry 頻繁に同時に起こる組み合わせを見ている。
ry これを空間的パターンと呼 ry パターンが時間と共にどのような順で現れるか ry
これを時間的パターンないしシーケンスと呼んでいる。

ry 入力が建物の ry センサであるなら、リージョンは建物の北側や南側において、
ある温度と湿度の組み合わせがしばしば起こることを見つけるだろう。
そしてこれらの組み合わせが毎日移り変わる様子を学習 ry

ry 入力があるお店の購入に関する情報 ry 、週末にある種の雑誌が購入される ry
、天候が寒いときはある種の価格帯のものが夕方頃に好まれることを ry

一つの HTM リージョンは学習の能力が限定されている。
ry どれだけのメモリ ry 入力が ry 複雑 ry に応じて何を学習するかを自動的に調整する。
ry メモリが削減 ry 学習する空間的パターンはより単純 ry
メモリが増加 ry 複雑になりうる。学習した空間的パターンが単純であれば、
複雑な画像を理解するにはリージョンの階層構造が必要となりうる。
我々はこの特徴を、人の視覚システムに見る ry
。網膜から情報を受け取る新皮質のリージョンは、
視覚的な小さな領域についてだけ、空間的なパターンを学習する。
階層 ry を経由した後にだけ、視覚の全体像を認識する。
0568567
垢版 |
2016/11/23(水) 12:52:31.78ID:IM1cuRG2
生物的システムと同様に、HTM リージョン ry オンライン学習 ry
新しい入力を受け取るごとに継続的に学習する。
学習 ry 推論が改善されるが、学習フェーズと推論フェーズとを分ける必要はない。 ry

ry HTM は学習し続けることもできるし、訓練フェーズの後に学習を無効化することも ry
、階層構造の下位レベルでは学習を無効化し、上位レベルでは学習を続けることもできる。
HTM が ry の統計的構造を学習したら、多くの学習は階層構造のより上位 ry
。もし HTM が下位レベル ry 新しいパターンに触れたら、これらの新しいパター
0569yamaguti~貸
垢版 |
2016/11/25(金) 00:26:26.51ID:NrX1gg1r
>>http://rio2016.2ch.net/test/read.cgi/future/1479349196/772
>772 : yamaguti~kasi 2016/11/24(木) 22:14:53.06 ID:gvzci1Hb
> 難易度
> 精神転送 > ネット生命体化
>
> >342 : YAMAGUTIseisei 2016/09/22(木) 15:11:35.05 ID:PmVnGSgy
>>> 内容紹介 ry 日本には大逆転の隠し球 ry 1~3位を独占 ry 齊藤元章氏が手がけるNSPU
>> http://google.jp/search?q=matuda+takuya+sinsyo+ai+OR+al
>
>>>NSPU → 人格融合 射程寸前 http://ja.catalyst.red/articles/saito-watanabe-talk-6# >>65
>>> 応用 : 精神融合 ( やレディーの前ですが電脳セоクス ) 技術に直結 ( 鏡像 >>111 )
>
>http://rio2016.2ch.net/test/read.cgi/future/1473812514/441# BCI
>http://wc2014.2ch.net/test/read.cgi/future/1444213055/444# haamonii


>889 :846~転:2016/01/04(月) 13:50:26.45 ID:6ASy9gR+
> 融合 → アップロード ( ※ 但し AI との完全融合は不可能 ( >>873 ) → AL と融合 )
0570567
垢版 |
2016/11/27(日) 07:35:53.00ID:vHhUl6EA
Page 20

ンを学習するのにより長時間必要 ry 。既に知っている言語の新しい単語を学習するのは
比較的容易 ry 慣れない発音の外国語の ry 、まだ下位レベルの発音を知ら ry

単にパターンを見つけることは、価値の高い可能性を秘めている。
マーケットの変動、病状の変化、天候、工場の生産、送電系統のような複雑なシステムの
障害などの、高レベルなパターンを理解することはそれ自体に価値がある。
それでも空間的・時間的パターンを学習することは推論と予測に先立って必要となる。

推論
HTM が周囲の世界のパターンを学習すると、新しい入力について推論ができ ry
、以前に学習した空間的ないし時間的パターンと照合 ry
入力が以前に格納したシーケンスとうまく適合 ry が、推論とパターンマッチングの本質 ry

メロディをどうやって理解 ry 最初の音 ry 次の音 ry 十分では ry
普通は3,4,ないしそれ以上の音 ry 。HTM リージョンの推論も似 ry
継続的に入力列を見て、以前学習したシーケンスと照合 ry シーケンスの最初から ry
が普通はもっと流動的で、 ry メロディがどこから始まっても貴方が理解できることと似 ry
HTM リージョンは分散表現を用いるので ry
シーケンスを記憶ないし推論することは上記のメロディの例よりも複雑 ry

貴方がセンサから新しい入力 ry すぐに明確になるとまでは言えないものの、
慣れ親しんだパターンを ry 容易に見つける ry
、例え老人であっても若い人 ry 、ほとんどの人が話す「朝食」という言葉を理解できる。
同じ人が同じ「朝食」という単語を百回発音しても、その音は二度と、
貴方の蝸牛殻17(音の受容体)を正確に同じように刺激することはないにも関わら ry
0571570
垢版 |
2016/11/27(日) 07:36:49.57ID:vHhUl6EA
HTM リージョンも脳と同じ問題に直面する:入力は決して正確に繰り返されない。
さらに、ちょうど脳と同じように、 ry 推論や訓練の最中にも新しい入力 ry
対処する一つの方法は、疎分散表現 ry 。疎分散表現の鍵となる特徴は、パターンの一部

17 cochleae。かぎゅうかく。耳の奥にある渦巻き状の感覚器官。
0572yamaguti~貸
垢版 |
2016/11/28(月) 23:25:22.09ID:ljM7ATY9
>268 : オーバーテクナナシー 2016/09/20(火) 10:29:28.04 ID:lWJpK4O6
> >> ry 。量子テレポーテーションでは、「いつ転送されたか」が受信側には分からないため、
> 別経路の従来の(光などの)通信が必要 ry
> https://ja.m.wikipedia.org/wiki/量子テレポーテーション
>
> 319 : オーバーテクナナシー 2016/09/21(水) 15:50:42.70 ID:W1zU7Hj5
> >>268
> 事前にいつ送信するかを決 ry
>
>>http://rio2016.2ch.net/test/read.cgi/future/1473812514/322
> 322 : YAMAGUTIseisei 2016/09/21(水) 18:32:10.83 ID:oXyswuUP
> >>319 データレコーダ ( や RS-232C ? ) の冗長ヘッダ → 自動待合せ

量子状態 反転 ( 方向 ) 推論 充分可能
0573572
垢版 |
2016/11/29(火) 22:14:35.28ID:jEWJCDe1
クロック等用チャネル
0574yamaguti~貸
垢版 |
2016/12/01(木) 23:41:48.13ID:7xq7MG9h
> 707 : オーバーテクナナシー 2016/11/23(水) 23:53:27.58 ID:uc5KgrCv
> GoogleのAI翻訳ツールは独自の内部的言語を発明したようだ、そうとしか言えない不思議な現象が
> http://jp.techcrunch.com/2016/11/23/20161122googles-ai-translation-tool-seems-to-have-invented-its-own-secret-internal-language/

> 708 : オーバーテクナナシー 2016/11/24(木) 00:03:18.73 ID:FV9AmA+z
> GoogleのAI翻訳ツールは独自の内部的言語を発明したようだ、そうとしか言えない不思議な現象が
> http://jp.techcrunch.com/2016/11/23/20161122googles-ai-translation-tool-seems-to-have-invented-its-own-secret-internal-language/
>
> javaでいう中間言語的なモノ?


>710 : yamaguti~kasi 2016/11/24(木) 00:24:02.77 ID:gvzci1Hb
>>707
>484 : 481 2016/10/05(水) 17:22:58.19 ID:Pxo2DYci
> ※b4b 幻影実在大深度再帰自律オ... 素因数分解 素韻枢分解 素因枢分解
> 透過可視ニューロン必然融合 ( Rite スタック ) 自律簡易言語創発
>
> ※b4c 自律イメージ言語 → イメージ言語ベースイメージ自律認識
>→ イメージベーステキスト非連続コード層創発 ry

>>384 >>484


>>708
>577 : yamaguti~kasi 2016/11/14(月) 15:49:45.51 ID:NnxIikfK
>> = 物理空間融合レンダ = 仮想空間融合レンダ = 意味空間融合レンダ = 人格システム
> 意味粒度概念空間

>>379
0575yamaguti~貸
垢版 |
2016/12/02(金) 18:43:33.69ID:HgThED5J
>> http://rio2016.2ch.net/test/read.cgi/future/1480118427/481-485
>>539-
第14回全脳アーキテクチャ勉強会 「深層学習を越える新皮質計算モデル」報告レポート
3.大脳新皮質のマスターアルゴリズムの候補としてのHierarchical Temporal Memory (HTM)理論 (NPO法人 あいんしゅたいん 松田卓也氏)
http://wba-initiative.org/ja/1653/


> コネクトームと新皮質内の情報の流れ

> ry 大きく分けて領野間 ry マクロ・コネクトームと、 ry ニューロン間のシナプス結合を表すミク ry

> 新皮質は6層 ry 、階層内(横方向)はミクロ・コネクトームによる密結合であり、主に時間系列 ry
> 。階層間(縦方向)はマクロ・ ry 疎結合であり、主に静的パターンを処理する。
> 最下層では知覚の入力および筋肉への出力が行われ、最上層は意識あるいは論理的思考を司る。
> 階層を上昇する情報はフィードフォワード(FF)あるいはボトムア ry 下降 ry バック(FB)あるいはトップダ ry
> 。これらの情報の流れはベイジアンネットワークの性質 ry

> ry 。深層学習におけるバック・プロパゲーションはFBとは別物である。実際の脳ではFB情報が重要 ry
> 。FF情報とFB情報は必ずしも対称的ではない。FB情報の方がむしろ多 ry
> 。さらに重要なのは階層内からの情報である。下の階層からくる情報は全体の5-10%にすぎない。
> ry HTM理論では階層内の横からの情報は遷移確率のような時間的情報である。
> ry 、ゼータ1ではFBを扱うがCLAでは扱えず、これはCLAの欠点である。

> 新皮質の6層構造間と領野間の情報の流れについても解明が進んでいる。
> 新皮質への情報はまず4層に入り、そこから2/3層に送られる。
> さらに上の階層へは直接の経路と視床を経由する2種類がある。
> 5層は運動を支配している。
> 6層からはFBで1層に入る。
> CLAアルゴリズムでは4層と2/3層は実装されているが、5層と6層は実装されていない。
0576575
垢版 |
2016/12/02(金) 18:45:32.64ID:HgThED5J
> HTM理論の解説
>
> ry 発展に伴い実装 ry 。Numentaの資料により初代のゼータ1 から CLA, Gen3, そして将来の Gen4 ry
> 。以下では ゼータ1, CLA, Gen3 ry
> ゼータ1 ry 、教師なし学習、木構造の階層構造、上の階層ほど空間的・時間的に不変性 ry
> 、バッチ学習、学習と推論フェーズの分離 ry
> 。学習は階層ごとに行われ、階層を上がるに従い空間プーリングと時間プーリングによ ry 不変性 ry
> 。下層から上層へのFFだけでなく、上層から下層へのFBも実装されている。
> Vicarious ではゼータ1を発展させた Recursive Cortical Network 理論が実装 ry CAPTCHA を破る ry
>
> CLAは神経科学の知見を取り込み、
> 神経細胞の細胞体、基底樹状突起、遠隔樹状突起、尖端樹状突起、軸索などとモデルを対応付けている。
> 新皮質の6層構造において情報は三方向 ry 下の階層、上の階層、同じ階層の横方向から入ってくるが、
> 下からの入力は5%ほどで、残りの95%は上と横 ry 。CLAにおいては遠隔樹状突起を経由しての横方向
> からの入力を扱うことが、通常のニューラルネットワークの理論と異なっている。
>
> CLAの主な特徴は、空間プーリング、時間プーリング、SDR (Sparse Distributed Representation, スパース表現)
> によるデータ表現である。空間プーリングとは、ry 。時間プーリングとは、 ry 。
> SDR は、一つのパターンを多数のニューロン(コラム)のうちの複数のニューロン(コラム)で表現することで、
> 豊富な表現力と頑強性を実現している。実際の脳ではSDRが採用されている。
> ry 反対に一つのパターンを一つのニューロンで表現する方法は Point Neuron あるいは Localist 表現と呼ぶ。
> SDRの幾何学的表現は、基底樹状突起をHTM空間における短いベクトルとし、
> 下の階層の長いベクトルを多数の短いベクトルの和として表現していると考えられる。
> これをSDRのハリネズミモデル ry モデルの具体例として脳の集団符号化方式がある。
> Gen3 は CLA の後継として Numenta が2014年 ry
0578570
垢版 |
2016/12/04(日) 17:39:24.40ID:VL9xSNhJ
Page 21

分だけをマッチングするだけでほぼ確実にマッチ ry

予測
HTM の各リージョンはパターンのシーケンスを格納する。 ry
現在の入力とマッチングすることで、次に到着すると思われる入力の予測をする。
ry 実際には疎分散表現の間の変遷を記録する。
あるときはその変遷はメロディの中の音に見られるように線形のシーケンスであるが、
一般的な場合は将来入力される可能性があるものが同時に多数予測される。
HTM リージョンはときには長期間に及ぶ過去の文脈に基づいて異なる予測をする。ry 。

HTM の予測の鍵 ry

1) 予測は継続的 ry
貴方は特に意識していなくても継続的に予測 ry HTM も同じ ry
歌 ry 次の音 ry 。階段 ry 足がいつ次の段に触れるか ry
予測と推論はほとんど同じ ry 。予測は分離された処理ではなく ry 統合 ry

2) 予測は階層構造のすべてのレベルのすべてのリージョンで起こる
ry 。リージョンはそれが既に学習したパターンについて予測 ry
。言語の例では、低レベルのリージョンでは次の音素を予測し、高レベル ry 単語や句 ry
0579578
垢版 |
2016/12/04(日) 17:40:14.36ID:VL9xSNhJ
3) 予測は文脈依存 ry
予測は過去に何が起こったか、そして現在何が起こっているかに基づいて行われる。
従って直前の文脈に基づいて、ある入力から異なった予測が行われることがある。
HTM リージョンは必要なだけのより多くの直前の文脈を用いて学習し、
短時間ないし長時間の両方の文脈を保持 ry 可変長記憶18 ry
例えば、暗唱 ry ゲティスバーグ演説19 ry 。次の単語を予

18 variable order memory
19 Gettysburg Address。「人民の人民による人民のための政治」のフレーズが有名。
”Four score and seven years ago our fathers brought forth on this continent, a new nation,
conceived in Liberty, and dedicated to the proposition that all men are created equal...” (以下略)
0580yamaguti~貸
垢版 |
2016/12/05(月) 18:56:24.50ID:s5+vq0Ta
第五世代コンピュータ計画 = 大成功

↓↑

Prolog ソリューション = 言わばワトоン型


http://rio2016.2ch.net/test/read.cgi/future/1476925488/90# Dai5sedai
http://rio2016.2ch.net/test/read.cgi/future/1473812514/740# SuityokuTougou
http://google.jp/search?q=lisp+takeuti+gc+tao+OR+ruby


Report By 関 亜希子(ライター)
http://blog.livedoor.jp/chishajuku/archives/cat_1107573.html
> 日本発の新しいコンセプトに基づいた第5世代コンピュータ ry 僕も初期段階では参加 ry
> 。第5世代コンピュータは高性能な並列処理のロジックマシンで、
> ハードウェアのコンセプトとしては大変優れていたのですが、
0581YAMAGUTIseisei~貸し
垢版 |
2016/12/05(月) 20:47:47.60ID:s5+vq0Ta
>>http://rio2016.2ch.net/test/read.cgi/future/1480859621/59
> 59 : yamaguti~kasi 2016/12/05(月) 20:14:39.07 ID:s5+vq0Ta
> 専門分野違いながら
>
> 強い AI 理論 : HTM ( 予測 テンポラル系時間管理 )
> |
> | 入力応用 ? ( 一層切出し 多層化 ? )
> ↓
> 弱い AI 実装 : DeepLearning ( 外部タスク 内部ビュー 等 → 自己改良用分割余地 )
> |
> | フレーム自体モデル化 ? ( → 自己改良転用パーツ化余地 )
> ↓
> 弱い AI 実装 : Deep PredNet ( 予測 )


>DeepLearning ( 外部タスク 内部ビュー 等 → 自己改良用分割余地 )

| 外部タスク 内部ビュー 等 動的化 外部化

DNC ( 自律傾向芽生え 長期記憶 http://rio2016.2ch.net/test/read.cgi/future/1475655319/939# )
0582yamaguti~貸
垢版 |
2016/12/07(水) 01:03:50.89ID:i949cOw9
>207 : yamaguti~kasi 2016/12/07(水) 00:40:01.72 ID:i949cOw9
> >>航空機 戦艦
> >899 : YAMAGUTIseisei 2016/11/04(金) 21:09:51.02 ID:O8dhrfC/
>> 32 bit 版 ARM の肝はそこではない
> >>航空機へのゲームチェンジに耐える非戦艦型スパコン設計
>
> >740 : yamaguti~kasi 2016/12/03(土) 22:40:41.28 ID:97cte86A
>> >>600
>>> 将来には脳の全てをエミュレーションできるAIの開発も研究
> >最初からоみ ( 現状版 64bitARM 不о合 )
>> http://rio2016.2ch.net/test/read.cgi/future/1476925488/899
>
>http://rio2016.2ch.net/test/read.cgi/future/1480118427/568# tyuugoku


>>527
> >>525-526
> http://google.jp/search?q=arm+32+meirei-hyou+OR+asenburi+OR+futuu%89%BB

http://google.jp/search?q=tronchip+meirei+kansetu
http://rio2016.2ch.net/test/read.cgi/future/1480118427/946# interconnect

>> >もっと言えば電子頭脳そのもの = AI ( AL ) 変形スパコン戦艦航空機

>>182 >>381 >>531-534
0583YAMAGUTIseisei~貸し
垢版 |
2016/12/08(木) 01:22:18.80ID:03i1lYGF
do?omo 1996 年頃 Web アンケート ( 携帯電話 拡張案 )
→ メディア化案 投稿 ( アイデア料に付いて付記 具体例 SYSTEM2 音源エミュ )

NetScapeNavigator キャッシュのバックアップが残っている筈
0584yamaguti~貸
垢版 |
2016/12/08(木) 23:59:03.35ID:03i1lYGF
>>http://rio2016.2ch.net/test/read.cgi/future/1480859621/364-365
ポストヒューマン = 単に AI 装備 ?

>713 : YAMAGUTIseisei 2016/11/02(水) 18:56:57.88 ID:2rq/lQF2
> ※ 但し AI とはまともには融合できない ⇔ 融合可 → AL ( かネイティブモーフィック NSPU )
> http://wc2014.2ch.net/test/read.cgi/future/1450893538/889# YuugouFukanou

※ 但し Fixstars : Cell 蓄積 → 航空機スパコン 射程 ?


http://rio2016.2ch.net/test/read.cgi/future/1480118427/946# koukuuki
http://google.jp/search?q=cell+nettowa-ku+OR+off-chip-ac0+bif/ioif0
http://google.jp/search?q=kutaragi+net+tokasu
ttp://google.jp/search?q=cellbe+network-gata+sekkei+eib
>>582

ttp://yahoo.jp/UUNk3s?#Sponsor_-_CellBE
0586yamaguti~貸
垢版 |
2016/12/10(土) 01:58:38.83ID:O8le5YJ4
http://www.sankeibiz.jp/smp/aireport/news/160605/aia1606050700001-s1.htm
> ーニングの顔ニューロンが表現する内容は静的ですが、脳の顔ニューロンは非線形のダイナミクス ry
> 。猿の脳 ry 、顔ニューロンが、刺激の後しばらくは人と猿を区別するみたいな大まかな分類をやり、
> もう少し時間が経つと、より詳細な個を区別したり、表情を区別したりしだすのです。
> つまり時間とともに表現する内容が変わっていく。
> このダイナミクスが脳の本質で、それがない人工ニューラルネットワークは脳とは全然違うものなのです。

>>562 >>564 >>578
http://webcache.googleusercontent.com/search?q=cache:numenta.com/assets/pdf/whitepapers/hierarchical-temporal-memory-cortical-learning-algorithm-0.2.1-jp.pdf#22#26#28-30#32#38-41#54#63#70#73#77#80


2
> 理論が大事 ry 。やってみたら出来ました、結果が出ましたという研究が多い。
> ディープラーニング ry は、入力情報と出力情報を一致させる同じニューロン数から成る恒等写像を
> 作ることを繰り返すのだけど、その際、途中(中間層)でニューロン数を絞るので非線形の情報圧縮が起き、
> ry 圧縮 ry 。だけど、それが何故上手くいって、何をやっているのかを理論的に解明しないと、
> 大きな飛躍にはならないと思います。 ry
> 理論研究は世界的にあまり進んでいなくて、みんな使ってみて結果を出すことに熱中

5
> ディープラーニングに関しては、もっと数理をやらないと底が浅い話 ry 危惧 ry
> 使ってみたら出来ましたっていう研究 ry も良いと思いますが、
> 僕らは数理の研究者なので、どうして上手くいくのかが分からないと僕らの研究にはならない
0587586
垢版 |
2016/12/10(土) 01:59:36.18ID:O8le5YJ4
http://www.sankeibiz.jp/smp/aireport/news/160605/aia1606050700001-s3.htm
> 「ディープラーニングを使って、動的なものすなわち時空間のダイナミクスを扱おうとすると、
> これまで失敗してきたことの繰り返しになると思います。
> ニューラルネットワークを使って、時空間のダイナミクスを扱う研究は何十年もされてきてはいますが、 ry
> 。むしろ、そういった時空間情報を扱う手法は、既に数学的に ry 。ディープラーニングは要素技術としては

>>555 >>564 >>567-568
#32#36#40#48
>>581


4
> 大脳皮質は、視覚も聴覚も触覚の部分も基本的に同じ六層構造で、構造自体に汎用性があります。
> 単にそこに入ってくる情報が違うだけで、基本原理は同じはずです。

http://webcache.googleusercontent.com/search?q=cache:numenta.com/assets/pdf/whitepapers/hierarchical-temporal-memory-cortical-learning-algorithm-0.2.1-jp.pdf#11#12#65-67#69
0588587
垢版 |
2016/12/10(土) 02:00:38.64ID:O8le5YJ4
4
> 人工知能が語られる時、ほとんどの場合はソフトウェア ry
> 、ハードウェアのことが触れられることは極めて少ない。
> 「あと、ハードウェアの研究をやらないと革新的なものは作れない ry
> 。日本は伝統的にニューロンのハードウェア化の分野で世界をリード ry
> 。今ではニューロモーフィック

>>555
> HTM ネットワークは ry 、階層構造、時間と疎分散表現( ry )の主要機能を包含する限り、
> 我々は汎用的なコンピュータを使ってモデル化することができる。
> 我々はいずれ、HTM ネットワークに特化したハートウェアを作ることになる ry

>>554
> 人工知能エンジン Deep Insights
> 汎用人工知能 Project N.I.
> 汎用人工知能用ハードウェア開発
> ・Connectome機能実現
> 汎用人工知能
> (世界初のAGI)
> ・マスターアルゴリズム
> ・ソフトウェアレス
レスを投稿する


ニューススポーツなんでも実況