前スレ
■ちょっとした物理の質問はここに書いてね303■
https://rio2016.5ch.net/test/read.cgi/sci/1752727213/
■ちょっとした物理の質問はここに書いてね304■
https://rio2016.5ch.net/test/read.cgi/sci/1755923902/
■ちょっとした物理の質問はここに書いてね305■
https://rio2016.5ch.net/test/read.cgi/sci/1759571910/
探検
■ちょっとした物理の質問はここに書いてね306■
1ご冗談でしょう?名無しさん
2026/01/10(土) 00:20:12.60ID:PkjHiCtF243ご冗談でしょう?名無しさん
2026/01/31(土) 00:02:20.84ID:+VtE6rME 「スタジオに4億円再現してみました」って、大谷さんはその250倍以上なんだから
2026/01/31(土) 00:54:22.68ID:???
>>242
>アメリカみたいに各都道府県を別の国の様に扱ったらもっと発展したりしてな・・・
有り得ないな、実力自認するならアメリカの就業ビザを獲得する努力すればよろし
・現在、米カリフォルニア州のGDPは日本全体よりも大きい
・各都道府県に細分化すれば没落が加速、格差分断が拡大するだけ
・島国で単一民族社会に近いので無宗教的でも格差が抑えられてる
かつて
世界を席巻した造船、化学、電機、自動車産業が凋落しポスト産業を育成出来ない
教育予算(約5.88兆円)で、防衛(9兆353億円)に値する価値があるか?
長期世界戦略の欠如で、若者から極端化(自己保身?)するだけ
>アメリカみたいに各都道府県を別の国の様に扱ったらもっと発展したりしてな・・・
有り得ないな、実力自認するならアメリカの就業ビザを獲得する努力すればよろし
・現在、米カリフォルニア州のGDPは日本全体よりも大きい
・各都道府県に細分化すれば没落が加速、格差分断が拡大するだけ
・島国で単一民族社会に近いので無宗教的でも格差が抑えられてる
かつて
世界を席巻した造船、化学、電機、自動車産業が凋落しポスト産業を育成出来ない
教育予算(約5.88兆円)で、防衛(9兆353億円)に値する価値があるか?
長期世界戦略の欠如で、若者から極端化(自己保身?)するだけ
2026/01/31(土) 01:27:01.64ID:???
2025年時点のデータで、日本の教育費の対GDP比はOECD36か国平均を下回り、
政府支出における教育費の割合はワースト上位。(家庭負担で教育格差が増大)
政府支出における教育費の割合はワースト上位。(家庭負担で教育格差が増大)
2026/01/31(土) 10:30:39.73ID:???
理論計算もAIのほうが間違えないようだな
247ご冗談でしょう?名無しさん
2026/01/31(土) 10:38:30.76ID:+VtE6rME 国から国立大学法人に回る金は薬価同様じわじわ下げられ続けている
民間から寄付を取ってくるか、企業に金出させて共同研究するか、自前ベンチャーで稼げということか
でもな、5年10年で商業ベースになるような研究は本来大学がやるべきものではない
民間から寄付を取ってくるか、企業に金出させて共同研究するか、自前ベンチャーで稼げということか
でもな、5年10年で商業ベースになるような研究は本来大学がやるべきものではない
2026/01/31(土) 13:31:30.36ID:???
しんぷさんもムーニーちゃん プー
249ご冗談でしょう?名無しさん
2026/01/31(土) 14:00:58.78ID:WskxrKpi2026/01/31(土) 18:50:49.54ID:???
現在のAIは、2017年にGoogleから発表されたTransformerを使っている
Transformerはプロンプトをトークンに変換したものを学習し、
学習後に質問のトークンを入れるとその回答を出力する
Transformerモデルは元々はEncoderとDecorderが組み合わされていたが
EncoderはBERT、DecorderはGPTと別々に使うようになり、
現在AIに使われているのはGPTである
GPTはDecorderが小規模のもので12段、大きいものだと64段直列になっている
Decorderの中身はMasked-MHA(Multi-Head-Attention)とMHAとFFN(Feed Forword Network)で直列につながっている
このうちFFNは2層の全結合層である
MHAはアテンション機構と言われている。そのアテンション機構は単純
1 KVキャッシュというトークンが、学習によりDecorderの中にある。KVとかKey, Value
2 入力トークンはQueryになる。
3 K,V,Qのそれぞれに重みをかけた後に、QとKの内積を取ってからSoftmax関数を通す
4 そしてその出力とVの内積をとって出力の重みをかける
5 この学習で得られるのは、Kの重み、Vの重み、Qの重み、出力の重み、そしてFFNの全結合層の重み
こんな行列の内積を取ってるだけのものから、ChatGPTみたいな知能のようなものが生まれる。
ちなみに1トークン(英語なら単語1つ、日本語なら1文字)は768次元のベクトルになっている
Transformerはプロンプトをトークンに変換したものを学習し、
学習後に質問のトークンを入れるとその回答を出力する
Transformerモデルは元々はEncoderとDecorderが組み合わされていたが
EncoderはBERT、DecorderはGPTと別々に使うようになり、
現在AIに使われているのはGPTである
GPTはDecorderが小規模のもので12段、大きいものだと64段直列になっている
Decorderの中身はMasked-MHA(Multi-Head-Attention)とMHAとFFN(Feed Forword Network)で直列につながっている
このうちFFNは2層の全結合層である
MHAはアテンション機構と言われている。そのアテンション機構は単純
1 KVキャッシュというトークンが、学習によりDecorderの中にある。KVとかKey, Value
2 入力トークンはQueryになる。
3 K,V,Qのそれぞれに重みをかけた後に、QとKの内積を取ってからSoftmax関数を通す
4 そしてその出力とVの内積をとって出力の重みをかける
5 この学習で得られるのは、Kの重み、Vの重み、Qの重み、出力の重み、そしてFFNの全結合層の重み
こんな行列の内積を取ってるだけのものから、ChatGPTみたいな知能のようなものが生まれる。
ちなみに1トークン(英語なら単語1つ、日本語なら1文字)は768次元のベクトルになっている
251ご冗談でしょう?名無しさん
2026/02/01(日) 01:22:27.42ID:Eu1qiQc5 >>244
近代科学が欧州で発生したのは狭い地域に多数の国が密集していたからだと言われている。
一つの大きな国だと特定の研究を禁止したりして科学の進歩が抑圧される恐れがある。
禁止されている研究をする為に隣の国に逃げる場面がアニメ「チ。」にも有った。
中国みたいにデカすぎる国は上からの抑圧がきつくて化学発展が抑制される。
近代科学が欧州で発生したのは狭い地域に多数の国が密集していたからだと言われている。
一つの大きな国だと特定の研究を禁止したりして科学の進歩が抑圧される恐れがある。
禁止されている研究をする為に隣の国に逃げる場面がアニメ「チ。」にも有った。
中国みたいにデカすぎる国は上からの抑圧がきつくて化学発展が抑制される。
レスを投稿する
ニュース
- 高市首相、NHK番組への出演取りやめ… ★9 [少考さん★]
- 「外国人いなかったら農業回らず」 各党熱帯びる政策、地方の現実は [蚤の市★]
- 【衆院選】高市早苗首相「大きな政策転換を皆さんに審判していただく」 [Hitzeschleier★]
- 20代男性の3人に1人がセックス未経験、半数は「交際相手なし」という衝撃実態が明らかに ★4 [首都圏の虎★]
- WBC辞退検討のプエルトリコ会長「もし米国が金メダルを欲しがるのなら日米3試合制シリーズをやればいい。我々の時間を無駄にしないほしい [征夷大将軍★]
- マヨネーズと醤油を混ぜた女性、義母から全否定 (キャリコネ) [少考さん★]
- 高市早苗「円安メリット強調との報道は誤解」 [834922174]
- 【実況】博衣こよりのえちえちドラゴンクエストVII Reimagined🧪★5
- ▶んなあ…w🍬日曜日のルーナイト達集合なのらよぉ…w🍬【#なのらいぶ】🏡
- 高市早苗さん、昨日左腕につけていたサポーターが今日は右腕に移ってしまう [931948549]
- 【ホクホク】代理出席の田村「強い円を」療養中の高市早苗「!?」 [196352351]
- 【動画】中道改革連合の演説の聴衆wwwwwwwwwww [931948549]
