(強いAI)技術的特異点/シンギュラリティ118
レス数が950を超えています。1000を超えると書き込みができなくなります。
2045年頃に人類は技術的特異点(Technological Singularity)を迎えると予測されている。
未来技術によって、どのような世界が構築されるのか?人類はどうなるのか?
などを様々な視点から網羅的に考察し意見交換する総合的なスレッド。
■技術的特異点:収穫加速の法則とコンピュータの成長率に基づいて予測された、
生物的制約から開放された知能[機械ベース or 機械で拡張]が生み出す、
具体的予測の困難な時代が到来する起点。
■収穫加速の法則:進歩のペースがどんどん早くなるという統計的法則。
ここでの進歩とは、技術的進歩だけでなく生物的進化、生化学的秩序形成も含む。
★ 関連スレ(特化した話はこちらで)
(AI) 技術的特異点と政治・経済・社会 (BI)
https://goo☆.gl/riKAbq
(情報科学) 技術的特異点と科学・技術 (ナノテク)
https://goo☆.gl/RqNDAU
★関連書籍・リンク・テンプレ集(必見)
https://goo☆.gl/Puha9e
※URL部分をコピーし、☆を消してペースト※
※前スレ
(強いAI)技術的特異点/シンギュラリティ117
https://rio2016.5ch.net/test/read.cgi/future/1522158608/
(強いAI)技術的特異点/シンギュラリティ116
https://rio2016.5ch.net/test/read.cgi/future/1522149406/
(強いAI)技術的特異点/シンギュラリティ115
https://rio2016.5ch.net/test/read.cgi/future/1521525644/ >>853
何故ダメなのかを音で理解するために
音をベースにした補助的知識と複合的に言語を学んでいくんだよ
それで何故ダメなのかを理解してくの
「わんわん」とこのAIが質問してきたら
「にゃんにゃん」って返してやりゃいいんだよ
「『わんわん』という質問に【にゃんにゃん】ってどういうことですか?」
って質問文になるだけなんだから >>852
ほんとか?
猫飼ってたら、
猫の名前で呼ぶだろうし、
CATとは呼ばんのじゃない?
英語圏の親って、
赤ん坊に向かって、
SHITとか連発してるの?
なかなか、スゴイ話だな。 >>854
AIに猫を見AIが「わんわん?」
と言ったら人間が「にゃんにゃん」
と答える、と言う意味ですか?
だとすると、音だけじゃなくて
画像も必要です。 >>855
お前の大好きな絵本の読み聞かせで猫が出てきたらどうすんだよ
猫ちゃんだよ〜だろ
その絵本で猫についてる名前で呼ぶか?
shitなんて連呼してるに決まってんだろ
夜中なかれて「クソまたか!」
さっきおむつ変えたばかりなのに匂ってきて「クソ、またか!」
子育てってものがどんなものか知ってりゃ当たり前に想像が付く
言っちゃ悪いがお前とのやり取りが低レベル過ぎて
AIと話してるかのような気分だわ >>856
最初はわんわんって音で質問してきたら、にゃんにゃんって音で返すだけでいい
幼児期知性の段階になって始めて画像を補助的知識として使えばいい話だ
最初は人間と同じく画像なんてほぼ無視すりゃいい >>857
えー?
絵本で猫を読み聞かせしたから、
CATが一番最初の言葉になってるの?
名前のついてない猫がメインの絵本が、
英語圏だと人気なの?
絵本の言葉が一番最初にくるなら、
日本はなんで、
ママとかマンマになってしまうの?
自分で説明しててかなり
支離滅裂になってきてると自覚はあんまりない? >>859
幼稚過ぎて付き合いきれねーわ
いくらでも答えが浮かんでくるけど
その度に自分の考えを述べずに質問で返すだけなんだろ?
マジでどこぞの大学が研究用に放ってるAIじゃないよな? >>858
>最初はわんわんって音で質問してきたら
まあ、
外部入力情報がない状態で、
いきなり質問を発する時点で、
そのAIはとんでもない性能なんだけど、
なかなか面白そうだから、
是非やって見るべきだと思うよ。 >>858
そうすると、AIは
「わんわん」と自分が言うと、
「にゃんにゃん」と答えが返ってくるだけだ
というふうに思ってしまうだけにならないですか?
もし「わんわん」とか「ちがう」とか
返ってくることがあったら、なんでそうなのか
わかりようがないので、学習にならないと思う。 まずAIには自発性というものがない、
つまり、
何かを疑問に思って、
質問をするなんて事は、
通常できない。
まず、疑問に思うと言う自発性がない。
知らない単語が出てきたら、
質問しろと言う風にプログラムはできるかも知れないが、
それと、
記号接地問題は別のものになる。
つまり、
AIが認識した、
音声データやテキストデータが、
実社会において、
どういうものかをAIは認識できないと言われている。
と言うか、
言われていた、
ただし、
この記号接地に関しては、
ある程度までは、
ディープラーニングでできるようになった。 >>862
そうだぞ、最初はそれでいいんだよ
なんで良いのかなんて理解してない
幼児がなにかモノに適当な音を発したとして
適当に回りの人間が知ってる言葉で褒め称えれば
幼児はその音を都度発するようになるだろ
意味なんて分かってない
違うよって言われたら、「なぜ?」って返してくるだけだ
その時に答えを改めてくれてやればいい >>847
>そんな入力デバイス云々より、
>赤ちゃんの様に成長するプログラムを>組めるなら、
>それはそれだけで、ほぼ汎用AIだけどね
これに尽きると思う。
ただ、入力形態として音声入力も重要だよねって話自体は異論ないのだろうけど、あんまりみんな興味ないんじゃね。
音声入力にしたからって、人工無能になるだけなのは自明の理だろ…
それでもし、求めるようなAIに育つというなら、逆算すれば赤ん坊の脳は人工無能のプログラムってことになる。そんな訳ないだろ… つまり、
言語の認識と実世界とのグラウディング、
接地はある程度まで進んだ。
要は、
さまざまな猫の画像から特徴量を抽出して、
猫やさまざまな物を認識できる
人工知能はできた。
では、
何の接地ができないのか?
と言うと、
概念のみの存在の接地ができないという話になっている。
つまり、
経済、社会、組織とか、
抽象的な概念しか存在していないものは、
接地ができないでいる。
ただし、
この記号接地ができる様になったからと言って、
言語の文脈認識が可能になったり、
汎用AIになるのか?は、
全く別問題になっている。 >>865
その時の答えというのは、
人間が「にゃんにゃん」と言いながら猫の画像を見せる
ってこと? >>866
赤ん坊の脳はランダム性を持った人工無能って事で
一体なんの問題があるんだよ
最初はそうでも繰り返す内に自意識を獲得していくんだよ
この自意識っていうのは結局のところ「Yes と No」、「0と1」で構成されてるものでしかない
ただその組み合わせが複雑かつ確率的重ね合わせなだけだってのが俺の根本的理論だからな 後まあ、
今のディープラーニングベースのプログラムに、
質問や答えの入力を繰り返した所で、
求めているようなレベルでの知能は成長していかない。
そんなものは、
LINE等の
チャットボットで試しているが、
上手くいってない。
と言うか、
そう言う方向性は最初から目指してないはず。
テキストベースで上手くいかないからと言って、
音声ベースのチャットボットを作っても、
その結果は変わらない。 そんなので出来るなら、もうりんなでシンギュラリティ到達出来てるだろ >>868
なんだっていいんだよ
犬って答えてもいいし、犬って言うんだよって答えてもいい >>871
りんなと根本的に違うのは
テキストベースと違ってこの音の変化率ベースの場合
スムーズな質問会話文の組み合わせを
言葉の音の繋がりからAIが作り出せることにある
ここがもっとも大きい最終段階
いちいち言語分類を教える必要性がない >>872
音といつも関連している何かが無いと
音が意味を表さないと思う。
「にゃんにゃん」だったらいつも猫の画像
「わんわん」だったらいつも犬の画像。
犬って言うんだよだけでは、
いつ犬って言えばいいのかAIにはわからない。
それとも言葉の発音練習だけすればいい時期
があるみたいな意味? エンターテイメント的にして集客したいならば
ベースとなるオウム返し音声を人気女性声優にでもすりゃいいんだよ
アニメガホンみたいにな
自分で喋って同じようにプロ声優の声で返ってくるのが基本
それで延々と喋らせてデータ稼げばいい >>873
>スムーズな質問会話文の組み合わせを
>言葉の音の繋がりからAIが作り出せることにある
うーん、
全く意味が分からないと言うか、
ディープラーニングベースのチャットボットに、
質問と答えの入力を繰り返すだけで、
そんな事が可能なら、
>>871
>もうりんなでシンギュラリティ到達出来てるだろ
と言う話になる。
ただ、
熱意がありそうなのは分かる。
頑張ってみたら良いんでないの? 取り敢えず、子音と母音に分解するのは云々カンヌンの部分は面白いと思った。
赤ん坊プログラムが完成した前提で(もうそれだけでシンギュラリティだよという話は置いて)、追加でその音声入力の仕組みをIFにすると効率的に成長するのかもしれないとは思った。 >>874
単純な質問文の段階ではそれでいいんだよ
本質はオウム返しと質問回答による音声データの蓄積にあるんだから
そこからデータ的に音の変化率からの組み合わせによって
自動的に質問文を作り出すのが目的だからな
自分と全く違う声をほとんどリアルタイムで聞くと
人間がどういう会話をし始めるのかっていうのを試してみれば
俺の言ってる事がどういうことなのかが分かるよ
ただベストは最初の人間の入力をこれで行う事だ
https://jp.techcrunch.com/2018/04/07/2018-04-06-mits-new-headset-reads-the-words-in-your-head/ 最初のっていうけど、音の変化率データの基本が出揃った後の最初って意味な
思考から読み取ったものをttsで音声入力する >>878
>自分と全く違う声をほとんどリアルタイムで聞くと
>人間がどういう会話をし始めるのかっていうのを試してみれば
曲をたくさん覚えれば、イントロで曲名がわかって
その曲の歌詞が全部言える、みたいな意味?
それができるだけなら新しい歌詞は作れないよね?
人間だって覚えてる事をそのまま取り出すだけで
なんでもできてるんじゃないか、ってこと? >>880
その部分は、主に楽しくなってきて話しちゃうからバズるよって意味なんだけど
質問に答えるならば
曲をたくさん覚えれば、次に繋がるフレーズがどんなものか確率的に予測出来て
それを組み合わせていくだけで新たな曲が作れるという意味だよ
人間だって覚えてる音を自然な形でランダムに組み合わせて新たな曲を作るでしょう
これを言語でやるのに音の変化率ベースが最適だという事だよ >>878
これはスゴイな
>あなたの頭の中の言葉を読み取るマシンをMITのチームが開発、すでに確度92%
ただコレってどの程度なんだ?
思考や文章じゃなく言葉というのが、
微妙な表現なんだけど、
そもそも、
思考はどの程度、
脳内で言語化されてるんだ?
表層にある部分の思考を言語化しているだけでも、
恐らく膨大な量の情報量になるはずだけど、
全部言語化されると、
意味をなしてない可能性が高いと言うか、
脳内で、浮かんでは消えていく言葉や、
何パターンか想定して、
話を組み立てた場合。
それらを全て言語化してくれるのは、
ありがたいと言うか、
自分で後から見直しても
意味が分からんとかになりそうだな。 >>882
これは恐らく
人間は思考する段階でどうしても
思考についての微弱な神経パルスを喉(声帯)に出力するから
それを拾っているんだと思うよ
デバイスの位置的に耳から顎にかけて這うようなデバイスだからね
厳密には思考を読んでいるわけではなく、喉に対して出力された神経パルスを拾っているだけだろう
でも人間の思考は必ずしも喉に出力されるものが全てじゃなくて
表層に浮かび上がっているそれらの背後に確実に別の思考が介在している
でもこれはそれを拾えない
だから92%って数字になるんだろうね ほとんどの人間が言語的に思考する時に母国語で思考する
これは本質的に脳内で喋っているのと同じで
思考内容を文面で視覚映像的に思い浮かべながら思考する人はあまりいないし
思考に合わせた映像を態々作り出すような手間をかけて思考する人もいないでしょう
脳内で喋ったほうが遥かに手っ取り早い
人間の思考の本質的部分は音的に処理されてる
そこから自分の思考について考えた結果、音の変化率ベースって発想なんだわ >>881
ってことは言葉同士の繋がりやすさの確率だけで歌詞ができるとすると
最初の言葉や次につなげる言葉を選ぶのにランダムを入れるだろうから
同じ状況で意味の違う事を言ったりしてあんまり役に立つようにならないのでは? >>885
最初の言葉や次につなげる言葉は人間だって適当だよ
ただみんなそうしているからって定型文を使ってるのがほとんどだし
いきなり奇声を上げながらハイテンションで声をかけてくる人だっている
同じ状況で意味の違う事を言ったら問題かい?
みんなそうじゃないか
同じ状況で意味が同じことを毎度のように返すのはそれこそ人工無能だろう?
その役に立たなさ加減が最高に人間っぽいんじゃないか
役に立つようにしたいなら、役に立つような答えだけするように教えればいい 音で学習って簡単に言うけど音声を認識して学習するには結局テキストベースにしないとこれまでのプログラムを利用できないぞ… >>886
ってか、普通言葉って始めに何か言いたい内容ができたから言うので、
ランダムで言葉選ぶとすると、なんでもいいから何か言いたくなったとき
くらいしか無いんじゃないだろうか。 >>888
ならそのようにすればいい
なにか言いたい内容ができた時ってのをこのAIに教えるとしたら
質問したい事や適当に言いたい事がしきい値を超えて溜まった時とかになるんじゃないかな?
人間と同じだよ なんかレスの頻度鈍ってきたし時間も時間だしそろそろ止めるか
ツッコミに対して有益な反論もないし
Googleでもamazonでも俺をアイディアだけで拾ってくれりゃいいんだけど
あーでもベゾスは底辺の人使い荒いんだっけ
ホワイトなグーグルがいいなー
つってもこの論理で確実にAIが大幅に進化するって確信があるから
俺的には誰かが試してくれりゃそれでいいんだけどなぁー
アイディアはほとんど全部書きなぐったしな
ベーシックインカムでもディストピアでもなんでもござれだ
底辺に怖いものはない >>889
言葉の繋がり方の確率だけで必要な言葉にならないと思う。
「火山」と「家」と「さんま」だったら同じくらいの確率で
「煙がでているのは」から続くと思う。
「家」はちょっと確率少なそうだとすると危ない。 >>891
だからそんな超短い単語だけで無能的に判断しねーんだって
音声ファイル全体で言葉の繋がりを見るんだから
それに場面に応じて必要な言葉になる必要性が皆無だろ
自然でさえあればいい
必要な言葉がいるのならば、必要な言葉が出てくるように教えりゃいいんだよ
こういう会話の前後ではそれはねーだろって教えりゃ勝手にそうなっていく
それは人と同じなの
やってみてから文句言ってくれ
思考が浅すぎる >>892
でもこの場合は「さんま」じゃないとだめだと教えたとしても、
全体の中でだから「さんま」の確率が少し上がるだけなのでは。
ほとんど「さんま」が続くようにするには論理的にできるようにしないと
だめな気がする。 >>892
全体から「さんま」が続くときまるとすると、
全体だから意味が同じでも違う言葉が色々入っている場合が
ものすごく多くなって、それのほとんどで「さんま」だと
おしえないと、ほとんどの場合で「さんま」が続く確率に
できないので、大変になるのでは。全体が長いほど。
論理的に決められるようにできた方が楽なのでは。 あのさ、ふと思うに、会話とか電話で話す事って昔に比べて少なくなってるんじゃないの?
電話からポケベル、ファックス、携帯スマホときて、メールやラインになり、この掲示板なんて書き込んでレスしてるだけじゃん?
頭の中でリフレインしてるのか音読してるのか知らないけど、
今でも電車やバスでは電話もパソコンも音を消してるんだし、
シンギュラリティーでPCデジタル化が進むなり、ブレインインターフェースが進めば、それこそテレパシー状態に移行するんだろう?
音声認識は遅いし、要らないとかにならないのかな? >>892
まずチャットボットつくってみりゃいいじゃん >>895
大変で結構じゃないか
それくらい学習してもらわないと人間超えは無理だろ
絶対に論理的に決める必要性がない
勝手に論理的になる状況を作り出しつつ学習していくのが肝なのに
そんな無駄な絶対的論理処理を根本的部分に入れ込んだら無能化するだけ
本物の人工知能を作りたいなら楽とか楽じゃないとかそういう機械的なクソな判断は最後にさせるのがベストであって
最後の最後まで、あくまでも確率的に論理判断をすべき
人間も過去の知識に照らし合わせた経験則で判断しているだろう
絶対的論理判断なんてしてる人間はこの世には存在しない
まともな人間なら最後の最後で絶対的論理判断に近い法や倫理に則った処理を行うだけだ
これにしてもあくまでも法や倫理を無視したリスクを加味した上での、確率的論理判断
いくら人を殺してはいけないと教えたところで殺人は起きる
人工知能に対しても、その間違いを最終フレーム直前まで認めてやれるような構造でなければ
絶対に本物の知性なんてものは作りえない >>898
だったらいいな
BIなんて福祉国家の真反対、自己責任主義の最たるもの
庶民にとって、百害あって一利なしだよ
なんで持ち上げようとする馬鹿がいるのかわからない つーか人工知能に対して絶対な正確性を最初から求めてっから
いつまで経ってもAIがクソなんだろ
そんなもん捨てちまえ
どうしても欲しけりゃ最後の最後に教えろ
ロボット三原則を最初に教えるような無能ばかりなんだろうな
少しはそれが弊害になると頭使って考えりゃいいのに >>892
浅すぎるのはお前だろ
音の変化率って何だよ、周波数の変化?音量の微分?結局それは音声データそのまま処理しろってことだろ
お前の言う「音の変化率」を元にGoogleだのSiriだのは母音と子音に分解したり単語ごとに分解してるんだよ
結局お前の言ってることは既存の音声認識そのままで新規性がない >>902
ならその音の変化率だけで処理すりゃいいだけだ
簡単じゃねーか早く作れよほら
>元にGoogleだのSiriだのは母音と子音に分解したり単語ごとに分解してるんだよ
このクソ処理は必要ねーんだよ
生体脳における言語処理を馬鹿みたいに真面目に考えすぎてるから
こういう無駄なゴミ処理を入れる
新規性がないなら俺の言うものをすぐに出せるんだから良いじゃねーか ダークマターの正体かもしれない謎の粒子「アクシオン」を検出する最新機器の開発に成功 - GIGAZINE
https://gigazine.net/amp/20180414-axion-particles-detection-technology
京大iPS作製、効率数倍遺伝子発見
https://r.nikkei.com/article/DGXMZO29391610T10C18A4TJM000
■京都大学 iPS細胞研究所はiPS細胞の作製効率を2〜10倍に高める遺伝子を発見した。高品質なiPS細胞を短期間に作製する技術につながる。
遺伝子の働きを制御することで、がんの予防や治療につながる可能性もある。
AIが「三つ星」の味提供2030年代の技術ビジョン
https://r.nikkei.com/article/DGXMZO29413930V10C18A4NN1000
人工知能(AI)が一流レストランの味を提供する「三つ星マシン」に自動運転の空陸両用タクシー「クルマヒコーキ」――。
総務省は2030〜40年代を想定し、情報通信技術(ICT)を活用した未来ビジョン案をまとめた。
人口減や高齢化が進んでも持続的に成長できる社会づくりに向け、政府の成長戦略などに反映させる。 大体、てめーらガキの時に適当喋ってる段階で
これは子音でこれが母音で〜なんて考えるのかよ
考えねーんだよんなもん
そんなもんは後付で習う補助的な知識であって
言語能力の初期段階にそんな処理はまるで必要がない
「あ」の後の「い」が音量小さかったりでかかったりゴミ発音だったり
「ま」のあとに続く「ま」は「まー」になってたり
そういうところから徐々に徐々に始めんだよ
無駄にいっちょまえに分解なんざしてっからクソ遅くなるし
どうせその後言語的処理は別にテキストベースでなんてアホなことやってんだろ?
無駄なんだよ無駄、本当に人工知能作りたいなら全部やめろ
ttsには使えるから個別にやる分には勝手にやれ なんでこいつこんなに自分のアイデアに自信があるんだ
こんなところで話しても意味のある反論は無いと思うぞ ABCIグランドチャレンジ実施概要(2018年度)
http://abci.ai/GrandChallenge/
・1,088ノード(4,352GPU)を最大24時間占有利用できます。
・利用料金はリハーサルを含め無料です。
・人工知能分野における画期的な成果が得られる見込みがあること >>900
親が死んだ後に国がお小遣いくれる制度だと思ってるニートがいる模様
まあ自己責任を推し進めればその先はそのベーシックな部分も自分で何とかしろってなるだけだしな >>906
スポーツ観戦のノリなんじゃなかろうか?
あんまり似ているとは思えないんだけどね、自分でも
人気のあるスポーツってよく出来てて、経験者じゃなくたって楽しめる
ホームランとかヒットとかファインプレーとか、解説して貰えば素人でもよくわかる
その上で、素人談義が弾んで、スポーツバーには素人監督が大量に生まれる
今回テキトーなこと言ってる奴も、そういうノリなんじゃないの? アイデアに価値はない。アイデアを形にするまで、それは妄想に留まる。
──ラリーペイジ >>910
ここで妄想ばかりしてるニートが勘違いするからやめろよw >>910
これは妄想ばかりしてちゃ駄目っていう意味だからな
実行に移さなけりゃ何の価値もないってことだ
これを見て勇気づけられる妄想ニート君が出てこないことを祈る マジでニ〜トは死刑にして欲しいわ
社会のクズどもが >>905
でも結局単語で区切るみたいな事はするんですよね?
「さんま」が続くかどうかだとすると。
「さ」「ん」「ま」までは分けないでやるのがアイディア
だとすると、これ似ているんだろうか。
https://www.slideshare.net/t_koshikawa/endtoend
読んでもよくわからないんですけど、
形態素解析も辞書も言語モデルもいらないend-to-end音声認識
と書いてある。 >>920
革新的クリーンエネルギーシステムって核融合発電システムの事か?
詳細書いてないぞ Gは興味深いな
とはいえ、なんのこっちゃわからんけどな
ソフト開発に適用できないんだろか? 脳転移のがんに光明 最新治療で変わるイメージ
https://headlines.yahoo.co.jp/hl?a=20180415-00010000-jij-sctch
【宇宙/重力レンズ】銀河の重力でねじ曲げられた光が作る「アインシュタインリング」の姿をハッブル宇宙望遠鏡がとらえる[04/16]
http://egg.5ch.net/test/read.cgi/scienceplus/1523851046/
AIの力を借りた新人タクシードライバー、売り上げはいくら増えた? (1/2)
http://www.itmedia.co.jp/enterprise/spv/1804/16/news019.html
人口統計情報やタクシーの運行データなどの情報を解析し、タクシーの乗車需要を予測するNTTドコモの「AIタクシー」がAI・人工知能 EXPOで展示されていた。
サービスリリース前の実証実験では、AIタクシーを使った新人ドライバーの売り上げが実際に上がったのだという。 偶然から生まれた新素材がEVの「充電問題」を解決し、その普及を加速するかもしれない
https://wired.jp/2018/04/16/superdielectrics-supercapacitor/
電気自動車(EV)のボトルネックとも言えるバッテリーの「充電問題」を解決できる可能性を秘めた新素材が誕生した。
偶然から生まれたこのポリマー素材を使えば、わずかな時間で充電できるスーパーキャパシターのエネルギー密度を20倍近くにまで高められる可能性があるという。
EVだけでなく電力システムにまで技術革新をもたらす可能性を秘めた、その新素材の潜在力に迫った。
量子コンピューター企業ラティス、 暗号通貨を用いた資金調達ICOを開始。量子コンピューターのブロックチェーン応用を加速させる
https://www.value-press.com/s/pressrelease/200134
細胞老化の仕組みを解明 群馬大学|社会・話題|上毛新聞ニュース
https://www.jomo-news.co.jp/news/gunma/society/45285
細胞の「老化」に特定のタンパク質が関係していることを突き止めたと、群馬、山口両大の研究グループが11日発表した。
グループ代表の山下孝之・群馬大生体調節研究所教授は「人間の老化防止や、がん治療に生かせる可能性がある研究成果」と話している。
細胞は分裂を繰り返したり、ストレスを受けたりすることで増殖が止まり老化することが知られている。
研究グループは細胞内の「HSF1」と呼ばれるタンパク質が少なくなると老化が起こることに着目。培養した人の細胞を使い、詳しいメカニズムを調べた。
その結果、HSF1の減少がさらに「DHRS2」など複数のタンパク質の増減を連鎖的に引き起こし、老化に結び付くことを解明した。これまで主流とされていた学説を覆す成果という。 ソニー損保の調査では、新成人に、「購入する際に欲しい車」について質問している。
その結果は、図1の通りである。
http://president.ismcdn.jp/mwimgs/1/d/600/img_1d4a8dc8176645c0fd54a6f6afedd5cf97490.jpg
表をみるとわかるように、女性は価格重視であるのに比べ、男性はブランドを重視する傾向が強い。
女性はベスト10のうち輸入車はBMW(8位)だけ。
ラパン(5位)やタント(9位)といった軽自動車もベスト10に入った。
一方、男性はベスト10のうち、BMW(2位)、フォルクスワーゲン(3位)、メルセデスベンツ(6位)、
アウディ(7位)、と4車種が輸入車。8位のレクサスを加えれば、半数が輸入車・高級車で、
軽自動車はベスト10に入っていない。 >>931
車好きな男は多いからなぁ…
女性は比較的実用性重視だ >>932
俺はホンダのNBOXで十分だと思ってる。 東京・多摩市長選、“人工知能政治”訴えた候補は・・・
http://news.tbs.co.jp/newseye/tbs_newseye3343945.html
>「心からいろいろなことをしゃべらないと、うそだよ。あんなの機械じゃん」(多摩市民)
アホかw 自律思考していないAIが、
自発的に政策を設定なんてできない。
つまり、
AIが選択肢のテーブルに提示する
政策は誰かが選定したもので、
結局、
そのAIは誰かの腹話術人形でしか無いから、
まあ、
機械ってのは、あながち間違いではない。
そもそも、今の民主政治というのは、
選挙等で、
政策の選択肢のテーブルに上げられるものが、
民意によって決められると言うことは、
構造的に難しい。
基本的には、
政治家から与えられた
政策の選択肢の中での民主政治でしかありえない。
しかも、
その選択肢のテーブルに上げられた選挙公約ですら、
公約違反をしても問題が無いという、
どうしようもない物でしか無い。 基本的には、
相手に選択させるというのは、
誘導の初歩的な技術で、
選んでいる人間は、
自主的に選んでいると思いこんでしまいがちだが、
実際は、
選ばさせられている。
初歩的だけども、
有効な誘導手段ではある。
この辺りを、
学問的にアプローチしたいなら、
行動経済学を、
学ぶと良いことがあるかもしれない。 >>917
あくまで全体を見て勝手に機械側が判断するだけなのが根本で
区切る処理は入れないの
最後の方で区切るのが必要になったのならば区切ればいい
小学校で文法習うまでそんな事誰も考えてねーだろ
そういうのは後回しでいいんだよ
ぱっと見で詳しい単語は俺にはよく分かんねーけど
そのスライドでやってることは大筋は似てるように見えるな
これは音声認識だから最後の方で文字レベルベースに落とし込んでるっぽいけどそれは必要ない
あと13ページ目で用いてる学習システムが俺の言ってる変化率ベースかはわからん
あくまで生の音声データを元にしてるだけなら合ってるけど
子音母音にいちいち分解しちまってるようだと違う
音声-言語の同時複合学習手法で、質問と回答及び会話のセットを
一定程度学習した後に、自分で構築するシステムも組めばいいってのが
俺の言ってる音声変化率ベースの機械学習AIな >>936
思う事喋ったら今の政治家みんな落選しそう 【注目プレスリリース】ホログラフィーとツイスター理論を結びつける新たな数学 / 沖縄科学技術大学院大学
https://research-er.jp/articles/view/69847
【技術】世界初、アイロンで服に付けられる “3ミクロンの超極薄太陽電池” 理研と東レが共同開発
http://egg.5ch.net/test/read.cgi/bizplus/1523865531/ ブラウンシュヴァイク工科大学ら、1台の単眼カメラから人体3Dアバタを4.5mm精度で生成する機械学習を用いた手法を発表
https://shiropen.com/seamless/ai-3d-people-models
「スマートフォンの既存カメラや、PCのウェブカメラだけで可能」
「ユーザーは、その前でぐるっと回るだけでスキャンされます。」
イスラエルの研究者が考案した電力線経由でデータを盗む技術
https://arxiv.org/abs/1804.04014
あらかじめ仕込んだマルウェアが電源制御乗っ取って電力変動でデータ送る。同じオフィスにある機器で拾う。
転送速度超遅いけどネット繋がってないPCからでもデータを盗める。
ほぼPLC
https://twitter.com/Kyukimasa/status/985873630348263424 >>943
すごいっちゃ凄いけどそのなんだ
絶妙に用途がない 最新号 2018年4月16日号
特集 動き出す 無人経済
動き出す 無人経済
社会構造が激変し、常識が瓦解 「考える」 ロボットが奪う人間の優位性
ムダの徹底排除が競争力に オフィスから農場まで無人化が止まらない
無人企業も現実に 経営者こそ淘汰の危機 生き抜く5つの条件 多分イーバモンに決定だよ
一応イーバモンに限定だよ
当然イーバモンに指定だよ
無論イーバモンに認定だよ
勿論イーバモンに確定だよ
必ずイーバモンは斬新奇抜だよ
絶対にイーバモンは新機軸だよ
確実にイーバモンは独創的だよ
十割イーバモンは個性的だよ
100%イーバモンは画期的だよ
イーバモンは強いよ
イーバモンは強力だよ
イーバモンは強大だよ
イーバモンは強者だよ
イーバモンは強豪だよ
イーバモンは強剛だよ
イーバモンは強烈だよ
イーバモンは強靭だよ
イーバモンの勝ち
イーバモンの勝利
イーバモンの大勝利
イーバモンの完全勝利
イーバモンの圧勝
イーバモンの楽勝
イーバモンの連勝
イーバモンの戦勝
イーバモンの制勝
イーバモンの優勝
イーバモンの奇勝
イーバモンの必勝
イーバモンの全勝
イーバモンの完勝 >>944
セキュリティ関係じゃね?
よくあるSF物にありそうなやつだな ヒトES細胞から作った脳オルガノイドがin vitroで「機能」的になることが報告されていたが、今回はそれをマウスの脳に移植して機能するという報告。
https://twitter.com/yamagatm3/status/985975414609899520
https://twitter.com/yamagatm3/status/985976178912751616
岡部洋一先生の「電磁気学」
これを無料で公開してしまってよいのでしょうか?という充実の内容です。
事実、講談社から「電磁気学の意味と考え方」として出版されたそうですが、現在は絶版、Amazonで高値がついてます。
pdfから「電磁気学 FAQ」にもジャンプできます。
https://twitter.com/enshot/status/985805700445040640
リンクあり
「ダビンチ」を成功させた医師の新作、ロボットががんと闘う日
https://newspicks.com/news/2956846
フレッド・モールは時価総額500億ドルのロボット企業を設立した。
いま彼が取り組んでいるのは肺がんの診断のためのロボットで、そのロボットは最近FDAから認可を受けた。
彼の最終的な目標は、そのロボットが自律的に診断を行えるようにすることだ。
電王戦で見たAIによる進化と人間の未来
https://www.ibm.com/think/jp-ja/watson/denosen/
コンピュータの判断は、AIによって確実に人間に近づいている。いや、人間を超える能力を発揮する部分も出てきている。
コンピュータが人間と対等な判断を下せるのか、人間のような「知性」を持てるのか、そんな挑戦を長年続けてきたのがチェスや将棋、囲碁といったゲームの分野だろう。
コンピュータが人間に勝つことで「AIは人間の知性と対等もしくは超えた」と一般の人でも明快に認識できる効果もあって、これまでさまざまな対戦が繰り広げられてきた。
人間の能力の限界に挑むAIの進化によって、AIと人間との関係が垣間見えてきた。 米AmazonのAI研究者が来日したので、Alexaの仕組みについて聞いてみた@ | AI新聞=AI Weekly=
https://aishinbun.com/talk/20180416/1337/
中国の警察官が「顔認証カメラ内蔵メガネ」を装備してから指名手配犯の検挙率が一気に向上したという話。
プライバシー保護や市民監視の怖さはあるけど「雑踏から容疑者を見つける"見当たり"はベテラン捜査員しか出来ない」が新人警官でもできるようになるのは大きい
https://www.telegraph.co.uk/news/2018/04/12/facial-recognition-used-catch-fugitive-among-60000-concert-goers/
https://twitter.com/metatetsu/status/985424399254806529
このグラスを開発した北京LLVision社によると、1万人/100msの顔認識ができるとのこと。
グラス部分は、
重さ:40グラム以下
価格:日本円で約6万5千円
解像度:600×480
カメラ:Sony製1300万画素、1080p / 30フレームの録画可能
http://m.pedata.cn/news/detail_409798.html
https://twitter.com/juntoku_y/status/985744947713261568
耐熱性・高効率・超薄型有機太陽電池
−ホットメルト手法で衣服に直接貼り付けるウェアラブル電源−
http://www.riken.jp/pr/press/2018/20180417_1/
「ウルトラフレキシブル有機半導体デバイス技術に加え、新しい半導体ポリマーを開発することで、超柔軟で極薄の有機太陽電池の耐熱性とエネルギー変換効率を大きく改善した」
アリババが自律自動車を開発中、輸送事業参入へ
https://www.technologyreview.jp/nl/alibaba-is-developing-its-own-driverless-cars/ 人工人肉を実現してほしい。
合法的に人肉が食べたいんだ。 レス数が950を超えています。1000を超えると書き込みができなくなります。