X



技術的特異点/シンギュラリティ 【総合】 208
■ このスレッドは過去ログ倉庫に格納されています
0001オーバーテクナナシー
垢版 |
2022/03/15(火) 23:01:21.67ID:Jfvv7eKh
2045年頃に人類は技術的特異点(Technological Singularity)を迎えると予測されている。
未来技術によって、どのような世界が構築されるのか?人類はどうなるのか?
などを様々な視点から多角的に考察し意見交換するスレッド

※特異点に伴う社会・経済・政治の変化やベーシックインカムなどに関する話題は【社会・経済】へ

■技術的特異点:収穫加速の法則とコンピュータの成長率に基づいて予測された、
生物的制約から開放された知能[機械ベース or 機械で拡張]が生み出す、
具体的予測の困難な時代が到来する起点

■収穫加速の法則:進歩のペースがどんどん早くなるという統計的法則
ここでの進歩とは、技術的進歩だけでなく生物的進化、生化学的秩序形成も含む

★関連書籍・リンク・テンプレ集(必見)
https://singularity-2ch.memo.wiki/
★技術情報『米国における汎用人工知能(AGI)研究 最新動向』

※前スレ
技術的特異点/シンギュラリティ 【総合】 207
https://itest.5ch.net/rio2016/test/read.cgi/future/1645157525
0090山口
垢版 |
2022/03/17(木) 06:46:03.91ID:LcgWH/dO
>29 山口青星 220219 0115 WlivQtjM >34 YAMAGUTIseisei 220118 1949 dKjOzdDu ttp://rio2016.2ch.net/test/read.cgi/future/1504999631/624# Kifu
>>Google 翻訳 http://arxiv-vanity.com/papers/1807.03819v1/# http://arxiv.org/abs/1807.03819# 18年7月10 提 \>プレ 。
>>Arxiv VanityはArxivの 論文をレスポンシブ Webページとしてレンダ するため、PDF に眉を顰める必要はありません
>> 皆さんにジミーウェールズを全部集めたくはありませんが あなたがそれを好きなら、数ドルをチャック 本当に感謝
||
|| ━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
||
||         ユニバーサルトランスフォーマー
||
|| ────────────────────────────────
||
|>
||    Mostafa Dehghani * †     &Stephan Gouws *
||     アムステルダム大学       Google Brain
|>      dehghaniATuva nl        sgouwsATgoogle
||
|> & Oriol Vinyals   &Jakob Uszkoreit   &£ukaszKaiser
||  ディープマインド   Google Brain     Google Brain
|>  vinyalsATgoogle     uszATgoogle     lukaszkaiserATgoogle
||
|>
>>* 名 順 \| † GoogleBrainで行われた作業
| :
>0 1 http://rio2016.2ch.net/test/read.cgi/future/1642414195/34-39#-40#1628247789/377#1620263233/571#544-572
1 2 http://rio2016.2ch.net/test/read.cgi/future/1645157525/29-39#894#615#1543421218/73-76

| :
|| 脳とシリコンスパイクニューロンとをメモリスタシナプスは接続する
|>http://rio2016.2ch.net/test/read.cgi/future/1639559117/82-90##1552014941/69-81#67-89# http://m.youtube.com/watch?v=bNXX9Iq9ad8#l9OEV9dqYvM
後続の記憶探索取得に対する1つの記憶探索取得の影響
http://rio2016.2ch.net/test/read.cgi/future/1635393243/83-94
>| 一覧 http://rio2016.2ch.net/test/read.cgi/future/1601145490/22-25
0091山口
垢版 |
2022/03/17(木) 06:48:20.17ID:LcgWH/dO
「健康医療分野のデータベースを用いた戦略研究」
http://rio2016.2ch.net/test/read.cgi/future/1519958054/60-78# ttp://google.jp/search?q=pezy-sc+paper

完成済汎用 AI / AL ( 弱い ALife )
http://rio2016.2ch.net/test/read.cgi/future/1481407726/205-207#1642414195/54-56#159#304 KanseiZumi Hannyou-AI/AL(YowaiALife)
汎用 AI/AL 設計例 ( 実装案 )
http://rio2016.2ch.net/test/read.cgi/future/1556696545/61-77# HannyouAI/AL SekkeiRei ( JissouAn )
電子頭脳設計概要 ( 実装案 )
http://rio2016.5ch.net/test/read.cgi/future/1427220599/478-509#742 DensiZunou SekkeiGaiyou ( JissouAn )

 
訳注

http://rio2016.2ch.net/test/read.cgi/future/1595501875/86#1602728979/46-48 KenRon # TaimuMasin / Zen-Mu-Kuu HiSuuri / NinsikiUtyuu
http://m.youtube.com/watch?v=Mp0kO_KTU0w&;t=4258#1:11:03# http://rio2016.2ch.net/test/read.cgi/future/1489922543/99#1427220599/443#144940326/415-420 ZyonHorando , HPK ( JO ) Y
Smalltalkの背後にある設計原則
http://rio2016.2ch.net/test/read.cgi/future/1554363939/71-85#-88##1555604755/52#+plan9+elis-tao+simpos-esp+amigaos/intent+hongmngos+spurs/cell+dragonruby+model1sega+tronchip+hpky-universaltransformer+hpky-reformer
>人間の思考には、この論文では扱われていない明らかな別側面があります。 ( ⇔ 原始再帰関数/原始帰納的関数 ? : 訳注 )
HarmonyOS ロンチイベント ファーウェイデベロッパカンファレンス 2019
http://rio2016.2ch.net/test/read.cgi/future/1571573897/25-31#-36 http://rio2016.2ch.net/test/read.cgi/future/1566534326/12
ユニバーサル : 普遍な 汎用な ( = AGI >>9 )
反復/繰り返し ( イテレート ) : 反復
反復/繰り返し ( リカレント ) : 再帰
自己 : ( 自己 ) 再帰 ( 的 ) な
注意 : アテンション , 紐付 , 接続 , 結合 , リファレンス/ポインタ/アドレス
並行 : ( 今回の実装としてわ ) 並列同時並行 ( 並行又並列の定義にわ諸説あり )
変換 ( トランスフォーム ) : 変遷 ( 的 ) 変換 , ( 準動的 ) 変容
変換 ( コンバート ) : 変換
0092山口
垢版 |
2022/03/17(木) 06:59:44.27ID:LcgWH/dO
? ry の注意の仕組みは、
より具体的には、私たちのアテンション機構わ,スケールするドット積アテンションであり

?   ry s o f t m a x ( ry ( Q 、 K 、 V ) = s o f t m a x ( Q K T√d ) V ) V         (1)
         A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K T / √ d ) V         (1)

ここで、 dはQ 、 K 、 Vの列数です。
? 私たちは、 ( トランスフォーマー ) ry れたように、kヘッドのマ ry ョンを使用します。
我々が使うのわ, ( トランスフォーマ , )で導入されたものとしての,ヘッド k 個なマルチヘッドバージョンであり,

  M u l t i H e a d S e l f A t t e n t i o n ( H ) = C o n c a t ( h e a d 1 、 ... 、 h e a d k ) W O   (2)     ? ry H )とは、   = C o n c a t (
          ここで h e a d i   = A t t e n t i o n ( H W Q i 、 H W K i 、 H W V i )   (3)    ? どこで

? 学 ry 行列W Q ry W O∈R d ラ dを用いた ry 影を用いる。
それわ,学習されたパラメータ行列各々, W Q∈R d ラ d / k 、 W K∈R d ラ d / k 、 W V∈R d ラ d / kおよびW O∈R d ラ d ,を用いたアフィン射影を伴っている。
ステップtにおいて、ユニバーサルトランスフォーマは、以下のように、すべてのm個の入力位置についての修正された表現H t∈R m ラ dを計算する
0093山口
垢版 |
2022/03/17(木) 07:04:40.54ID:LcgWH/dO
     H t   = L a y e r N o r m ( A t - 1 + Transition ( A t ) )            (4)     ? T r a n s i t i n
  ここで, A t = L a y e r N o r m ( Ht - 1 + M u l t i H e a d S e l f A t t e n t i o n ( H t - 1 + P t ) ) である。  (5)  ? ry w h e r e e ある ry H t ? 1 ry ) )であり 、ここで、 H t - 1 + M u l tは 、

ここでLayerNorm()は( layernorm2016 )で定義され、Transition()とP tは以下で説明します。
? ry じて、分 ry )または2つのアフィ 換間の単一整流線形活性化関数からなる完全連結ニュー ークの2 ry 1つを使用します。 A t ry に個別に割り当てる 。
タスクに応じて, 2つの異なる遷移関数の1つを我々わ使用します : 分離可能な畳み込み( xception2016 )か、アフィン変換 2 つの間の単一正規化線形アクティベーション関数からなる所のフル連結なニューラルネットワークか
,のどちらか。ポジションワイズで、つまり個別に A tの各行に、適用され ( てい ) る 。

? ry P tは、各 ry ついて位置 ry tについて( トランス 、 ) ry れたような正弦波位置 ry ゙クトルを計算 ry 得られた2 ry ごとに( ?で示される):
上記のP tは,( トランスフォーマ , )で定義されたものとしての Sin 関数 ( ? 訳注 : ベクトルを堅実に再帰精練 http://qiita.com/omiita/items/07e69aef6c156d23c538#1.3.5 ) 的 ( な ) 位置埋め込み ( な ) ベ レ群 ( 原文 : the
sinusoidal position embedding vectors as ) を各ベ レ次元jについて、位置mおよび時間ステップtについての単離状態,で計算することによって得られた, 2次元(位置、時間) 座標埋め込みであり、これらのベ レは成分ごとに加算( (+) で示す ( 原文 : 丸付 記号 ) ):

  P t p o s 、 2 j    = sin ( pos / 10000 2 j / d ) (+) sin ( t / 10000 2 j / d )       (6)    ? ry p 0 s ry +ry
  P t p o s 、 2 j + 1 = cos ( pos / 10000 2 j / d ) (+) cos ( t / 10000 2 j / d )である 。   (7)    ? ry p 0 s ry +ry
0094山口
垢版 |
2022/03/17(木) 07:06:29.77ID:LcgWH/dO
? ry れぞれが入 ry を並列に精 ry のd ry 行列である。
T個のステップ(それぞれが並列同時並行で,入力シーケンスのすべての位置を精緻化する)の後、ユニバー ォーマエンコーダの最終出力は、入力シー スのm個のシンボルについての, d次元ベクトル表現H T∈R m ラ dの行列 1 つである

? ry 本反復構 ry 。
デコーダは、エンコーダの同じ基本再帰構造を共有する。
? ry 、自己ア ョン機能の後に、デ ゙は、式2からの同じ ry 積注意機能を使用 ry ーダを投 ry れたクエリQを用いて、入力 ry 的なエンコー ry Tに追加的に関与する(この ry 的な注意に ry )のキー ry V )が含まれています。
しかしながら,その自己アテンション関数の後に,デコーダわ,入力シーケンス内の各位置の最終的エンコーダ表現H T ゑの手回しをも追加的に行うにその同じマルチヘッドドット積アテンション関数を式 2 から使用するが
,デコーダ表現群を投影して得られた所のクエリ群 Q と,そしてエンコーダ表現群を投影(このプロセスは標準的アテンションに似ている( bahdanau2014neural 、 ) )して得られた所のキーと値( KとV )と,を伴う。

トランスフォーマーモデルと同様に、ユニバー ォーマーは自己回帰型です( graves2013generating 、 ) 。
? 教師強制をを用いて訓練され、生成時にデコーダは出力を1シ レずつ生成し、デ ゙は以前に生成は以前に生成された出力位置を消費する。
Teacher Forcing を用い,生成時に於ては出力を一度に 1 シンボル生成し,それに伴って前回生成分の各出力位置をデ ゙が消費する,との訓練がなされる。
? ry中に、デ ゙の入力は目標出力であり、1つの位置だけ右にシ れる。
訓練中,デコーダ入力わ,ポ ョン 1 つ分だけ右シフトされる所の標的出力である。
? ry 、モデルが任意の予測されたシ レの左の位置にのみ関わるこ ry に、 ry 。
デコーダの自己ア ョン分布は、任意の予測されたシンボルの左の位置にのみモデルが関わる ( 原文 : attend ) ことができるように ( する為に ) 、さらにマスクされる。
? ry 、シン ry の目標分布は、最終 ry から出力 ry 出力行列を正規化したs ry 得られるその行の上に:
0095山口
垢版 |
2022/03/17(木) 07:11:13.98ID:LcgWH/dO
最後に、そのシンボル当たりの標的分布わ,その最終デコーダ状態からその出力語彙サイズVへのアフィン変換O∈Rd ラ Vを適用し、その後に( m ラ V )次元出力行列各行正規化な softmaxを適用することによって得られる:

  p ( y p o s | y [ 1 : p o s - 1 ] , H T ) = s o f t m a x ( O H T ) *1  (8)  ? ry p o s ? 1 ry h e r e d e n o t e s t i m e ? s t e p ry \ lx n(nは 自然 数 ) o $ t $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ $ & $ & $ e o p e r a t i o n 。

*1 ここでの T わ,転置演算 ( 原文 : transpose operation ) ではなく、タイムステップTを表すことに注意してくださ   ? ry のRは、 ry 。

モデルから生成するために、エンコーダは調整入力シー ス ( 原文 : the conditioning input sequence ) 用に1回実行されます。
? 次 ry され、既 ry された ry 費し、反復ごとに次 ry 置にあるシ レのボキャ リに1 ry 布を生成する。
その次に、デコーダは繰り返し実行されるが,追加の分布 1つの生成をボキャブラリに亘っての次の出力位置に於けるシンボルの為に反復毎にし続けつつ,既に生成されていたシ レを全て消費する。
? ry typically select the highest probability symbol as ry
? 次に、典 には、最も高い確 ry を次のシ レとして選択する。

次に我々わ,次のシ レとして,最高確率のシ レを,典型的にわ選択する ( ⇔ を,典型的な選択肢とする , を,選択 ( 肢と ) する事が典型的である : 訳注 )
0096山口
垢版 |
2022/03/17(木) 07:15:40.70ID:LcgWH/dO
? ry トランス
2.2 適応型ユニバーサルトランスフォーマ
シーケンス処理システムでは、特定の記号(例えば、いくつかの単語または音素)は、通常、他の記号よりもあいまいである。
したがって、これらのより曖昧なシンボルに、より多くの処理リソースを割り当てることは合理的です。
? ry in standard recurrent neural networks ry.
? Adaptive ry Time(ACT ry は、モデルの推定値を反映して、各 ry されたスカ ry ークで各 ry 数を動的 ry るメ ゙ムですその ry 対してさらに計算が必要であることを意味する。
適応的コンピューテーションタイム( Adaptive Computation Time , ACT) ( graves2016adaptive )わ,各ステップでモデルによって予測された所の更に計算がそのス ゚に対して必要であるとのそのモデル見積,を反映しているスカラーポンダー値に基づいて
、標準リカレントニューラルネッ ーク内の ( で , 内で ) 各入力シ レを処理するために必要な計算ス ゚数,を動的に変調する為のメカニズムです

? ry ォーマーがシー スのすべての位置に並行再帰変換を適 ry いう解釈からインスピレーションを得て、各位置にダイナミックACT停止メ ゙ムを追加します。
ユニバー ォーマの,シーケンスに於て同時並行再帰変遷変換を全位置に適用するというインタプリテーション,にインスパイアされた我々わ, ACT 動的停止機構を各位置に追加しもします
? ry の反復ブロックが停止すると、すべてのブ ry か、または最大 ry に達するまでその状態が ry ップに単純にコ ry (図 照)。
シンボル単位の再帰ブロック 1 つが停止 ( 原文 : halts ) すると,それのステートが次のステップゑと,全ブロックが停止するか,最大ス ゚数に我々が達するか,するまで単純コピーされます(動的決定される T ,を伴った図2を参照)。
? ry 力は、 ry の最終層である。
エンコーダの最終出力わ然して、このようにして生成された表現の、最終レイヤ ( 訳注 : 最終ステップ出力値群 ? ) である。
? ry 、このモデルの動 止モデルを ry 。
私たちは,我々のモデルのこの動的停止バージョンをAdaptive Universal Transformerと呼んでいます
0097山口
垢版 |
2022/03/17(木) 07:17:12.50ID:LcgWH/dO
技術的特異点/シンギュラリティ203【AGI・脳】 ( 実質 4 スレ )
http://rio2016.2ch.net/test/read.cgi/future/1631585037/#1543421218/64-65#1504872499//39
技術的特異点/シンギュラリティ204【技術・AI】 ( 実質 208 スレ )
http://rio2016.2ch.net/test/read.cgi/future/1632054584/#650#1614237161/16-17
技術的特異点/シンギュラリティ【総合】 207 ( 実質 211 スレ )
http://rio2016.2ch.net/test/read.cgi/future/1645157525/

http://rio2016.2ch.net/test/read.cgi/future/1602728979/58# Singyurarithi2023 ( KoronaKa ry )
http://rio2016.2ch.net/test/read.cgi/future/1602728979/38#-39#1645157525/894 GoosutoYou VM
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況