Daniel Marcus Graph Theory を読む。 [無断転載禁止]©2ch.net
■ このスレッドは過去ログ倉庫に格納されています
Daniel Marcus Graph Theory を読む。 ■■■馬鹿板を続けたらオツムがスポンジ脳になるのでサッサと足を洗うべき。■■■
¥ Graph Theory: A Problem Oriented Approach (Maa Textbooks)
by Daniel A. Marcus
https://www.amazon.com/dp/0883857723 ★★★数学徒は馬鹿板をしない生活を送り、日頃から真面目に学問に精進すべき。★★★
¥ 305 名前:132人目の素数さん[] 投稿日:2017/06/07(水) 11:16:58.13 ID:54f7ZpML
あ、簡単でしたね。
https://anaconda.org/for_2ch/chapter-c/notebook
306 名前:132人目の素数さん[] 投稿日:2017/06/07(水) 12:44:01.61 ID:54f7ZpML
http://imgur.com/UVl9MdB.jpg
与えられた次数列をもつ2部グラフが存在するかどうかの問題です。
解答をお願いします。
307 名前:132人目の素数さん[] 投稿日:2017/06/07(水) 12:52:53.09 ID:54f7ZpML
>>306
これは試行錯誤するしかないっぽいですね。
308 名前:132人目の素数さん[] 投稿日:2017/06/07(水) 12:56:32.29 ID:54f7ZpML
C26
(a)
次数をすべて足すと = 42
42 / 2 = 21
次数列を構成している次数はすべて偶数だから2部グラフは存在しない。
311 名前:132人目の素数さん[] 投稿日:2017/06/07(水) 19:37:58.59 ID:54f7ZpML
>>310
ありがとうございます。
https://github.com/for-2ch/for-2ch/blob/master/Chapter_C.ipynb
314 名前:132人目の素数さん[] 投稿日:2017/06/07(水) 21:25:35.66 ID:54f7ZpML
http://imgur.com/6ecwXxa.jpg
↑の問題C28の意味が分かりません。
どういう解答を期待しているのでしょうか?
(4, 3, 3, 3, 3, 3, 3, 2, 2)
という次数列だけからでは、2部補グラフがどのような次数列を持つかが
分からないように思います。
321 名前:132人目の素数さん[] 投稿日:2017/06/07(水) 22:17:21.49 ID:54f7ZpML
>>314
2部補グラフを考えることにより、問題が簡単になるようには思えません。 759 名前:デフォルトの名無しさん[] 投稿日:2017/06/12(月) 15:07:56.32 ID:yuw+moiO
グローバル変数の net というのは、関数の中で呼び出されている関数の中でも
使えるんですか?
760 名前:デフォルトの名無しさん[] 投稿日:2017/06/12(月) 15:09:49.85 ID:yuw+moiO
あ、できますね↓
glvar = "abc"
def myfunc1():
■■■■myfunc2()
def myfunc2():
■■■■print(glvar)
myfunc1()
761 名前:デフォルトの名無しさん[] 投稿日:2017/06/12(月) 15:11:05.87 ID:yuw+moiO
しかし、この斎藤っていう人、こんあひどいコードをよく恥ずかしげもなく公開できますね。
762 名前:デフォルトの名無しさん[] 投稿日:2017/06/12(月) 15:11:58.06 ID:yuw+moiO
なんでこの斎藤っていう人の本は高評価なんですか?
こんなひどいコード見たことがないです。正直言って。
763 名前:デフォルトの名無しさん[] 投稿日:2017/06/12(月) 15:12:31.37 ID:yuw+moiO
意図的に人を混乱に陥れようとしているかのようです。
764 名前:デフォルトの名無しさん[] 投稿日:2017/06/12(月) 15:22:22.17 ID:yuw+moiO
def f(W):
■■■■return cross_entropy_error(softmax(np.dot(x, W)), t)
↑こう書けば、x, t がグローバル変数ですが、理解可能だったと思います。
765 名前:デフォルトの名無しさん[] 投稿日:2017/06/12(月) 15:37:37.83 ID:yuw+moiO
もっと先でどうなっているのか知りませんけど、
コードの再利用を絶対しなければならないとかいう強迫観念があるかのようですね。 ■■■馬鹿板をスルと菅官房長官みたいな嘘吐きになります。そやし止めなさい。■■■
¥ 346 名前:デフォルトの名無しさん[] 投稿日:2017/06/12(月) 18:38:21.92 ID:yuw+moiO
↓このプログラムですが、ひどすぎないですか?
斎藤康毅のディープラーニングの本のコードです。
def softmax(x):
■■■■if x.ndim == 2:
■■■■■■■■x = x.T
■■■■■■■■x = x - np.max(x, axis=0)
■■■■■■■■y = np.exp(x) / np.sum(np.exp(x), axis=0)
■■■■■■■■return y.T
■■■■x = x - np.max(x) # オーバーフロー対策
■■■■return np.exp(x) / np.sum(np.exp(x))
def cross_entropy_error(y, t):
■■■■if y.ndim == 1:
■■■■■■■■t = t.reshape(1, t.size)
■■■■■■■■y = y.reshape(1, y.size)
■■■■■■■■
■■■■# 教師データがone-hot-vectorの場合、正解ラベルのインデックスに変換
■■■■if t.size == y.size:
■■■■■■■■t = t.argmax(axis=1)
■■■■■■■■■■■■
■■■■batch_size = y.shape[0]
■■■■return -np.sum(np.log(y[np.arange(batch_size), t])) / batch_size
347 名前:デフォルトの名無しさん[] 投稿日:2017/06/12(月) 18:39:18.66 ID:yuw+moiO
def numerical_gradient(f, x):
■■■■h = 1e-4 # 0.0001
■■■■grad = np.zeros_like(x)
■■■■
■■■■it = np.nditer(x, flags=['multi_index'], op_flags=['readwrite'])
■■■■while not it.finished:
■■■■■■■■idx = it.multi_index
■■■■■■■■tmp_val = x[idx]
■■■■■■■■x[idx] = float(tmp_val) + h
■■■■■■■■fxh1 = f(x) # f(x+h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val - h
■■■■■■■■fxh2 = f(x) # f(x-h)
■■■■■■■■grad[idx] = (fxh1 - fxh2) / (2*h)
■■■■■■■■
■■■■■■■■x[idx] = tmp_val # 値を元に戻す
■■■■■■■■it.iternext()
■■■■■■■■
■■■■return grad 素人向けだと言っているだろ!
あまりの初心者むけに評判がいいんだよ! 393 名前:デフォルトの名無しさん[] 投稿日:2017/06/21(水) 10:56:36.24 ID:CsbvaOkp
http://imgur.com/9QGwvmM.jpg
http://imgur.com/j3Dp32V.jpg
http://imgur.com/iJhKoqM.jpg
↑は浅野孝夫著『グラフ・ネットワークアルゴリズムの基礎』(近代科学社)です。
重大な誤りを発見しました。
G が二部グラフであるための必要十分条件は、G を幅優先探索したときに同じ深さの補木辺がないことであると書かれていますが、
完全な誤りです。
具体的に言うと、「同じ深さの点を結ぶ補木辺がないときは、この色の割当てが実際に2彩色になっている。」と書かれていますが、
間違っています。
反例は3枚目の画像を参照してください。
394 名前:デフォルトの名無しさん[] 投稿日:2017/06/21(水) 11:00:57.46 ID:CsbvaOkp
訂正します:
http://imgur.com/9QGwvmM.jpg
http://imgur.com/j3Dp32V.jpg
http://imgur.com/iJhKoqM.jpg
↑は浅野孝夫著『グラフ・ネットワークアルゴリズムの基礎』(近代科学社)です。
重大な誤りを発見しました。
G が二部グラフであるための必要十分条件は、G を幅優先探索したときに同じ深さの点を結ぶ補木辺がないことであると書かれていますが、完全な誤りです。
具体的に言うと、「同じ深さの点を結ぶ補木辺がないときは、この色の割当てが実際に2彩色になっている。」と書かれていますが、
間違っています。
反例は3枚目の画像を参照してください。
395 名前:デフォルトの名無しさん[] 投稿日:2017/06/21(水) 11:11:21.29 ID:CsbvaOkp
商品の説明
内容紹介
ネットワーク・人工知能の基礎となるグラフ・ネットワークを学ぶ
アマゾンに商品説明として、↑のように書かれています。
人工知能とグラフ・ネットワーク理論に何の関係があるのでしょうか?
この出版社は、「世界標準MIT教科書」などとタイトルに書いたり、売るためには
手段を選ばない出版社ですね。 ★★★数学徒は論理的な考察により客観的に暮らし、日頃から深い学術を志すべき。★★★
¥ 413 名前:デフォルトの名無しさん[] 投稿日:2017/06/26(月) 15:07:57.81 ID:wjem+ipT
浅野孝夫著『グラフ・ネットワークアルゴリズムの基礎』(近代科学社)ですが、この
本には強連結成分分解のアルゴリズムは書いてあるのですが、その正しさについて
の説明がありません。
「アルゴリズムの正当性については演習問題とする。」などと書かれているだけです。
そして、解答がありません。
解答をつけないほど簡単な問題でしょうか?
エイホ、ホップクロフト、ウルマン著『データ構造とアルゴリズム』に分かりやすい説明がありました。
414 名前:デフォルトの名無しさん[] 投稿日:2017/06/26(月) 15:09:29.86 ID:wjem+ipT
あ、よくみたら解答がありました。
415 名前:デフォルトの名無しさん[] 投稿日:2017/06/26(月) 15:14:33.33 ID:wjem+ipT
強連結成分分解のアルゴリズムはグラフ理論的な観点からは興味深いですが、
応用についてはあまりないようですね。
浅野孝夫著『グラフ・ネットワークアルゴリズムの基礎』(近代科学社)の「はじめに」に
「強連結成分分解はシステムの故障診断や効率的解析への応用があると言われている。」
などと書かれいます。浅野さん自身は応用について具体的な詳細を知らないと宣言して
いるようなものですね。
417 名前:デフォルトの名無しさん[] 投稿日:2017/06/26(月) 15:32:39.93 ID:wjem+ipT
ところで、LEDAというライブラリはお勧めですか? ★★★忖度と処世術に汚染された日本人:権威主義的な支配と損したくない人達★★★
〜〜〜芳雄氏が言う『研究者としての基本的態度』とは一体何だろうか〜〜〜
佐藤幹夫:自分自身の素朴な疑問に真剣に耳を傾ける。⇒不滅の金字塔を打ち立てる。
糞父芳雄:人間関係を駆使し他人を操り根回しを行う。⇒ハリボテお教授として君臨。
隠蔽の財務省、嘘吐きの文科省、そして問答無用に屈服させる官邸。コレでも先進国?
(佐藤師がしてたのは本物の研究だ。だが)芳雄氏がしてたのはケケケ、ケンキュウ。
外見を繕って偉そう見せさえすれば何でもヨロシ。ほんで教授になりさえすれば研究の
中身なんて何でもヨロシ。そもそも論文なんてモンは、外国の権威ある雑誌に掲載され
さえすれば、その中身のギロンなんて何でもヨロシ。そやし適当に書いてしまえ〜〜〜
中身がダメだと知ってて、ソレでもSTAP論文を外国に投稿して受理される。発覚したら
適当に言い逃れる醜い態度。オツムのダメな大学院生に「虚偽の良品ラベル」を貼って
世間に出荷するハリボテ大学は詐欺行為そのもの。世間に媚びを売って客商売に徹し、
『売れさえすれば学生の脳の質なんて何でもヨロシ』と居直る大学。そしてブランド名
だけを見て仕入れる世間。●●は一流大学やさかい、きっと優秀なエリートやろwww
中身を何も説明しないで、問答無用に上から押し付ける。ソレをイチャモンで騒いで、
そして邪魔して潰そうとする周囲の下々。大学教員も国会議事堂も、そして馬鹿板人の
遣ってる事も皆同じだ。日本人はバカ民族であり、今は外国にもちゃんとバレてるので
海外からも軽蔑されるだけであり、そのうちにどの国からも信用されなくなるだろう。
近視眼的で打算的な人生観を息子に押し付ける父親と、大脳に栄養が足りてない連中が
跋扈する永田町や霞が関に支配される国に住む不幸、一体どうしてくれるというのか。
■■■馬鹿板を続けたらオツムがスポンジ脳になるのでサッサと足を洗うべき。■■■
¥ このハゲー
おまえがいけ
おまえがちゃんとあやまってこり
これいじょうわたしをおこらせるな!
102 :
右や左の名無し様
2017/06/26(月) 16:51:43.50 ID:DV/Fl9ZZ
このハゲー ちゃうだろ!
おなじことをいわせるな
はげてるんですううううう
すみません スミマンセン スミマセン ■■■馬鹿板をスルのは頭の悪い行為であり、そやし数学徒が行ってはならない。■■■
¥ ■ このスレッドは過去ログ倉庫に格納されています