2ちゃんねる スマホ用 ■掲示板に戻る■ 全部 1- 最新50    

■ このスレッドは過去ログ倉庫に格納されています

【統計分析】機械学習・データマイニング11

1 :デフォルトの名無しさん:2016/12/20(火) 18:56:35.47 ID:VUT01fx8.net
何でもいいので語れ

■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/

前スレ
【統計分析】機械学習・データマイニング9
http://echo.2ch.net/test/read.cgi/tech/1470037752/
【統計分析】機械学習・データマイニング8
http://echo.2ch.net/test/read.cgi/tech/1464586095/
【統計分析】機械学習・データマイニング7
http://echo.2ch.net/test/read.cgi/tech/1460535528/
【統計分析】機械学習・データマイニング10
http://echo.2ch.net/test/read.cgi/tech/1479498503/

2 :デフォルトの名無しさん:2016/12/20(火) 20:20:37.24 ID:HMZooVAC.net
中井の機械学習理論入門を読んでいます。

第5章のロジスティック回帰について質問です。

データの単位を変えただけで、ロジスティック関数で計算される確率も
変わってしまいますが、問題ないのでしょうか?

ロジスティック関数を使って確率を定義していますが、必然性はあるのでしょうか?

3 :デフォルトの名無しさん:2016/12/20(火) 20:23:13.91 ID:HMZooVAC.net
ロジスティック関数の出力値に対して、確率という言葉を使っていますが、
非常に違和感があります。

なぜ、確率という言葉を使っているのでしょうか?

あと、中井の本は、ビショップの本から例題を取ってきているとのことですが、
ビショップの本をやさしくした本という位置づけでしょうか?

それとも全く方向性の違う本でしょうか?

4 :デフォルトの名無しさん:2016/12/20(火) 20:41:27.33 ID:Ww3ovdTs.net
出たな自称数学科
中井に聞け

5 :デフォルトの名無しさん:2016/12/20(火) 20:58:46.36 ID:aJdymNBp.net
>>3
出版社に聞け

6 :デフォルトの名無しさん:2016/12/20(火) 21:16:46.94 ID:HMZooVAC.net
ビショップの本の難易度はどれくらいですか?

7 :デフォルトの名無しさん:2016/12/20(火) 21:26:39.70 ID:FFMgZ81E.net
>>6
スレが立ったばかりなのに、煽るのやめな

8 :デフォルトの名無しさん:2016/12/21(水) 01:13:27.25 ID:npuR8TOU.net
0-1の間を取る関数ならロジスティック関数じゃなくても良いんじゃね?
あと全部足して1になるとか

9 :デフォルトの名無しさん:2016/12/21(水) 02:12:30.25 ID:BJ23ZEMQ.net
>>6
高校生レベルです

10 :デフォルトの名無しさん:2016/12/21(水) 18:07:13.45 ID:UR5SKYPV.net
ビショップを難しい難しいと言っている人達は、何をそんなに難しがっているのですか?

11 :デフォルトの名無しさん:2016/12/21(水) 18:19:47.73 ID:h0BiJOzH.net
難しい本を読んでる俺、かっこいいというだけでしょ
要はファッションとして読んでるだけだな

12 :デフォルトの名無しさん:2016/12/21(水) 18:38:05.32 ID:qoNatJeZ.net
ただまあ、日本で売られてるプログラミング関連書籍ってチュートリアル以下の内容のものだらけだったからね
大学の教科書レベルのものが多く出回ってきていい傾向じゃないかな

13 :デフォルトの名無しさん:2016/12/21(水) 19:06:29.38 ID:bi+Gdsd/.net
日本語の本に期待してもな…
英語の tutorial や blog 記事でも読んだほうがよほど参考になる

14 :デフォルトの名無しさん:2016/12/21(水) 19:44:32.90 ID:UR5SKYPV.net
>>11

ビショップの本は難しいんですか。

今度、読んでみようと思います。

15 :デフォルトの名無しさん:2016/12/21(水) 20:06:49.49 ID:NrhW+j3y.net
池沼か

16 :デフォルトの名無しさん:2016/12/21(水) 20:37:00.73 ID:UR5SKYPV.net
テレンス・タオ ルベーグ積分入門
テレンス タオ
固定リンク: http://amzn.asia/8KaL6NK

「日本の理工系学部ではルベーグ積分は3年次程度の必修相当科目なので、」

↑これっておかしくないですか?

普通、ルベーグ積分なんてやるのは数学科かせいぜい物理学科くらいじゃないですか?

17 :デフォルトの名無しさん:2016/12/21(水) 21:45:09.15 ID:0C+rUHwP.net
これからはテレビ、マスコミで注目されている人工脳SOINNです

18 :デフォルトの名無しさん:2016/12/22(木) 06:41:30.92 ID:So8XXQWE.net
>>16
頼むからもうそんなアホ質問を書き込まないでくれ

19 :デフォルトの名無しさん:2016/12/22(木) 08:09:18.80 ID:jiKDWo5b.net
>>16
何にたいしておかしいの?
その本質は何よ

20 :デフォルトの名無しさん:2016/12/22(木) 08:29:43.64 ID:XtKYmupm.net
pandasが並列計算できなくて遅すぎる
本当にみんなこんなクソなの使ってるの?

21 :デフォルトの名無しさん:2016/12/22(木) 08:36:17.06 ID:RMs4Y/1d.net
C言語で自分で実装すればいいじゃん。

22 :デフォルトの名無しさん:2016/12/22(木) 09:09:44.64 ID:kHdEcFrg.net
バカ正直にループ回して遅いと吠える池沼 www

23 :デフォルトの名無しさん:2016/12/22(木) 12:59:11.91 ID:y+mdv7YD.net
>>22
ほんそれ

24 :デフォルトの名無しさん:2016/12/22(木) 16:44:09.58 ID:uc2SqqaI.net
データの数が1000じゃ少ない?

25 :デフォルトの名無しさん:2016/12/22(木) 17:12:36.81 ID:KRYlmNcu.net
逆にPRML読み終えたら次は何読めばいいんだ?

26 :デフォルトの名無しさん:2016/12/22(木) 17:30:32.15 ID:VCTz12EN.net
>>25
興味ある方面のペーパーを読むのがいい

27 :デフォルトの名無しさん:2016/12/22(木) 17:32:39.09 ID:VCTz12EN.net
>>24
手法による。deep learning で通常のモデルなら、もちろん足りない

28 :デフォルトの名無しさん:2016/12/22(木) 17:35:41.11 ID:RMs4Y/1d.net
>>26

この方面の論文って質が低いのゴロゴロしてそうですね。

29 :デフォルトの名無しさん:2016/12/22(木) 18:13:23.15 ID:VCTz12EN.net
>>28
玉石混交かな。実験科学のような側面があるためか、少し雑な印象はある

30 :デフォルトの名無しさん:2016/12/22(木) 18:14:26.95 ID:RMs4Y/1d.net
中井の本は機械学習の標準的な手法をカバーしていますか?

31 :デフォルトの名無しさん:2016/12/22(木) 18:16:07.96 ID:RMs4Y/1d.net
中井の本を読んでいると、機械学習で必要な数学って
多変数関数の極値を求める方法だけのような気がして
きますが、どうなんでしょうか?

32 :デフォルトの名無しさん:2016/12/22(木) 18:17:03.08 ID:RMs4Y/1d.net
多変数関数の極値を求める方法をブラックボックスだと考えれば、
ほとんど数学がいらないように思いますが、どうでしょうか?

33 :デフォルトの名無しさん:2016/12/22(木) 18:41:35.84 ID:FOXXxQf7.net
>>32
組合せ最適化を極小値を求める問題に帰着出来たって事じゃね?

34 :デフォルトの名無しさん:2016/12/22(木) 18:52:26.77 ID:ZC+xkany.net
>>32
ビショップ本読んでから抜かせボケ

35 :デフォルトの名無しさん:2016/12/22(木) 19:42:04.24 ID:RMs4Y/1d.net
どうでもいいことですが、ビショップの本は家族の写真を載せていたりして気持ち悪いですよね。

36 :デフォルトの名無しさん:2016/12/22(木) 21:04:41.02 ID:Kk+jVWZK.net
洋書じゃ珍しくない。
ポーズだけでも家族を大事にしないと、すぐに訴えられるからなw

37 :デフォルトの名無しさん:2016/12/22(木) 23:24:41.48 ID:0xO+yp1n.net
なぜおまえらはマスコミにも注目されている和製AIのSOINNについて語らないのか。

38 :デフォルトの名無しさん:2016/12/23(金) 02:22:26.78 ID:JKOR5MAn.net
マスコミの報道≒高卒用だからだよ
おれら中卒なんで

39 :デフォルトの名無しさん:2016/12/23(金) 16:13:22.10 ID:nlvYDJxP.net
中井の次に斎藤の本を読もうと思うんだけど、他にお勧めの本は?

40 :デフォルトの名無しさん:2016/12/23(金) 16:22:49.11 ID:XuyY8bd+.net
>>39
本ばかり読んでても
色々実験したら?

41 :デフォルトの名無しさん:2016/12/23(金) 16:25:21.26 ID:nlvYDJxP.net
ぶっちゃけ実験には興味がないです。
仕組みが知りたいだけです。

42 :デフォルトの名無しさん:2016/12/23(金) 16:29:48.54 ID:Ha057TNQ.net
あっ・・・ふーん

43 :デフォルトの名無しさん:2016/12/23(金) 16:57:19.68 ID:XuyY8bd+.net
>>41
他人が言ってる事が正しいかどうかはどうやって確かめる?

44 :デフォルトの名無しさん:2016/12/23(金) 17:46:52.42 ID:t9l8okeB.net
というか、この分野は実験科学だからw
それが純粋数学との大きな違い

>>40
同意。

45 :デフォルトの名無しさん:2016/12/23(金) 17:57:07.94 ID:L/bfaofG.net
>>41
ぶっちゃけ大した仕組みなんてないよ、損失を減らして最適化していくだけ。
そして精度と速度の改良を追求していくだけ。
そのためには現状、理論よりも寧ろ経験。だから実験が不可避。

46 :デフォルトの名無しさん:2016/12/23(金) 19:18:03.70 ID:3leLgVjdc
mitのdeeplearningbookは、レベル的にはどんなもんですか?この後は実装系?

47 :デフォルトの名無しさん:2016/12/23(金) 23:05:35.57 ID:wvWhinwq.net
数理工学も情報工学も科学じゃないぜ

48 :デフォルトの名無しさん:2016/12/23(金) 23:09:14.18 ID:XuyY8bd+.net
>>47
科学の定義は?

49 :デフォルトの名無しさん:2016/12/24(土) 07:26:38.19 ID:ujXjvaJi.net
仕組みなんてあいまいなことを言われてもw
認知科学?神経科学?情報幾何学?学習理論?最適化問題?

50 :デフォルトの名無しさん:2016/12/24(土) 09:18:06.70 ID:FrtJ04F8.net
>>16 俺は経済学部3年でやった。

51 :デフォルトの名無しさん:2016/12/24(土) 12:41:54.42 ID:p4lqfCaM.net
science と technology のことを言ってるんか?

52 :デフォルトの名無しさん:2016/12/24(土) 12:44:25.76 ID:kmDY+xWz.net
変分ベイズっている?
やけに式変形複雑だし、MCMCあるから最悪やらなくてもいいかなと思うんだが

53 :デフォルトの名無しさん:2016/12/24(土) 13:06:41.87 ID:QKaExUrl.net
『人工知能の未来2017-2021』
http://coin.nikkeibp.co.jp/coin/nc/ai17/?n_cid=nbpnc_Itp10_jinkouchinou2017betsu_161207

54 :デフォルトの名無しさん:2016/12/24(土) 14:21:38.91 ID:S+eGuVbs.net
>>53
これで充分。

https://www.amazon.co.jp/dp/4140817046/

55 :デフォルトの名無しさん:2016/12/24(土) 14:59:01.35 ID:qxkKQLMS.net
先週のGoogle のTensorflowハンズオン
Python2系で初心者に教えていたらしいが?

56 :デフォルトの名無しさん:2016/12/24(土) 17:06:04.10 ID:QKaExUrl.net
それはもうマヌケとしか言いようがないな

57 :デフォルトの名無しさん:2016/12/25(日) 01:31:03.43 ID:znW3J4QJ.net
Azule MLで学習したパラメータってダウンロードできないの?

58 :デフォルトの名無しさん:2016/12/25(日) 01:40:00.05 ID:znW3J4QJ.net
間違ったAzureだった

59 :デフォルトの名無しさん:2016/12/25(日) 09:12:22.83 ID:5FtimH1Q.net
アモーレおめでとう

60 :デフォルトの名無しさん:2016/12/25(日) 12:29:55.02 ID:Tm8/ZDsg.net
中井の本の第7章を読んでいます。

(7.13)の尤度関数を最大にするパラメータを決定することで、なぜ
数字の画像データを分類できるのかが分かりません。

中井が悪いのでしょうか?

61 :デフォルトの名無しさん:2016/12/25(日) 12:31:06.91 ID:Tm8/ZDsg.net
EMアルゴリズムというのは何のことはない、単なる最適なパラメータを求める
アルゴリズムのことなんですね。

機械学習とは直接の関係はないんですね。

62 :デフォルトの名無しさん:2016/12/25(日) 12:31:53.63 ID:QaSM0n66.net
>>60
あなたの頭が悪い可能性の方が高いです

63 :デフォルトの名無しさん:2016/12/25(日) 12:51:07.02 ID:Tm8/ZDsg.net
π_k は典型的には、どんな感じになるんでしょうか?

64 :デフォルトの名無しさん:2016/12/25(日) 12:52:18.28 ID:Tm8/ZDsg.net
中井はなぜうまくいくのかを説明していませんね。

65 :デフォルトの名無しさん:2016/12/25(日) 13:05:56.10 ID:Tm8/ZDsg.net
図7.6を見ると、3つの「画像生成器」が最終的にかなりはっきりとした「0」「6」「3」になりますが、
ぼやっとした何を表わしているのか分からない「画像生成器」が尤度を最大にしない理由を
説明する必要があると思います。

66 :デフォルトの名無しさん:2016/12/25(日) 13:07:08.63 ID:Tm8/ZDsg.net
中井は結果がうまくいくんだから、理由の説明なんてどうでもいいと考えているのでしょうか?

結局なぜうまくいくか分からないのでしょうか?

67 :デフォルトの名無しさん:2016/12/25(日) 13:13:25.00 ID:Tm8/ZDsg.net
あ、中井も一応説明のようなことはしているんですね、EMアルゴリズムのところで。

EMアルゴリズムは、(7.13)の尤度関数を最大にするパラメータを決定するための
最適化手法にすぎないわけです。

不思議なのは、EMアルゴリズムが何をしているのかを見ていくことにより、最終的に得られる
「画像生成器」がかなりはっきりした数字に見える理由を説明している点です。

68 :あぼーん:2016/12/25(日) 13:18:45.03 ID:6JleHE7J.net
あぼーん

69 :デフォルトの名無しさん:2016/12/25(日) 13:22:57.18 ID:noZIvUkh.net
尤度を最大化するパラメータを求めても分類できないよ

70 :デフォルトの名無しさん:2016/12/25(日) 13:36:49.56 ID:tLbtHCKm.net
中井さんは話術はあると思うけど、本は読み難いなぁ

71 :デフォルトの名無しさん:2016/12/25(日) 13:53:03.37 ID:QaSM0n66.net
>>67
pixelが黒である確率を教師データを使って最尤推定するんだろ

72 :デフォルトの名無しさん:2016/12/25(日) 16:47:41.46 ID:smdkaJ2/.net
わかりにくい本は書いてる本人もよくわかっていない証拠

73 :デフォルトの名無しさん:2016/12/25(日) 16:53:45.30 ID:RcaAmbI8.net
厨房の論理

74 :デフォルトの名無しさん:2016/12/25(日) 17:00:27.81 ID:hrxPaxO/.net
>>72
そういう本があるのは事実
>>73
∀と∃を判ってない人大杉

75 :デフォルトの名無しさん:2016/12/25(日) 17:06:48.58 ID:RcaAmbI8.net
本書くのが下手なだけ

76 :デフォルトの名無しさん:2016/12/25(日) 17:08:18.58 ID:RcaAmbI8.net
>>74
それは単なるアホだろ

77 :デフォルトの名無しさん:2016/12/25(日) 17:18:07.37 ID:pePGRnto.net
垂れ流す人って承認欲求が強いのかな

78 :デフォルトの名無しさん:2016/12/25(日) 17:22:10.43 ID:smdkaJ2/.net
>>74
うむ。しかし以下に大別できるだろう。
1.どこかでそういう説明を読んで納得できたと思い込み、それをオウム返しに書いているパターン。
 条件が変わると説明できなくなる。
2.ちゃんと理解できているが、前提知識が大学以上の履修内容に依存しているパターン。
 一般向けに分かりやすく書いた本を謳うなら、せいぜい高校履修内容ベースに抑えるべき。

79 :デフォルトの名無しさん:2016/12/25(日) 17:25:54.61 ID:UTEv6G2B.net
人工知能ブームのうちに売りさばきたいだけだろ

80 :デフォルトの名無しさん:2016/12/25(日) 17:28:50.62 ID:KQvtHxcD.net
自身では「何も生み出してない」ことに劣等感があるんだと思う

81 :デフォルトの名無しさん:2016/12/25(日) 17:32:54.73 ID:pePGRnto.net
>>80
なるほど、納得したわ、
それで必要以上に攻撃的なんだな

82 :デフォルトの名無しさん:2016/12/25(日) 17:34:02.25 ID:RcaAmbI8.net
>>77
まさに、こいつら
ID:Tm8/ZDsg
ID:smdkaJ2/

83 :デフォルトの名無しさん:2016/12/25(日) 17:36:18.20 ID:UTEv6G2B.net
>>80
それな。日記の人もそのパターンで狂言っぽかった

84 :デフォルトの名無しさん:2016/12/25(日) 17:51:16.16 ID:MX3LEt/z.net
一般向けに分かりやすい本を書いたら1000ページを超えるので一般人が買わなくなる。

85 :デフォルトの名無しさん:2016/12/25(日) 19:20:43.05 ID:l728ewkJ.net
日記の人はアプリを出してこのスレで名前晒されてからパタッと消えたな
他スレじゃまだ自分のアプリのステマをしてるようだけど

86 :デフォルトの名無しさん:2016/12/25(日) 19:48:12.28 ID:MLPnBZfm.net
>>85
kwsk

87 :デフォルトの名無しさん:2016/12/25(日) 19:53:58.17 ID:Tm8/ZDsg.net
どんなアプリですか?

それは役に立つのですか?

88 :デフォルトの名無しさん:2016/12/25(日) 22:55:07.08 ID:ZDb1onKV.net
>>67
「初めてのディープラーニング オープンソース”Caffe”による演習付き」って本を買えよ
そんなのどうでも良くなるから

89 :デフォルトの名無しさん:2016/12/25(日) 22:56:46.95 ID:iF9pidvF.net
そのレベルで、を解してどうすんのw

90 :デフォルトの名無しさん:2016/12/25(日) 23:26:01.75 ID:yWHHO/K0.net
自分としてはやはりビショップの中井くんよりスマップの中井くんだな

91 :デフォルトの名無しさん:2016/12/25(日) 23:40:54.68 ID:+fGH5SIL.net
>>85
え?いつ名前晒された?

92 :デフォルトの名無しさん:2016/12/26(月) 06:01:05.26 ID:yGhn7kKn.net
あんなアプリ使うならGoogleにかけたほうがマシな気がする
翻訳もできるし

93 :デフォルトの名無しさん:2016/12/26(月) 09:42:46.51 ID:8pqaS3Qt.net
>>88

なんか中井の本よりももっと簡単な本のようにみえますが、大丈夫な本ですか?

94 :デフォルトの名無しさん:2016/12/26(月) 11:15:27.27 ID:mpwARsgq.net
https://youtu.be/7EekMD3GGHQ

https://youtu.be/uH-WOOcNZ0s

https://youtu.be/xHx5MbIGEoY

95 :デフォルトの名無しさん:2016/12/26(月) 12:53:37.16 ID:9XV8VHK/.net
>>85
人工知能アプリ作った後何作ろうか考えてたんだよ
とりあえず脱獄アプリ作ってみたけど。
次の人工知能アプリのアイディアはある。

>>92
Google翻訳は何回もボタン押したり指定しなければならない。
その点俺の人工知能アプリは、
簡単で使いやすい。

Googleも、自分たちで稼ぐために、
わざと自分たちのアプリを使いにくくしてる節がある。


その点はAppleも似たようなもんだな。

96 :デフォルトの名無しさん:2016/12/26(月) 12:57:33.88 ID:xNlnvd1Z.net
馬鹿の猿知恵

97 :デフォルトの名無しさん:2016/12/26(月) 16:05:34.72 ID:MJMwUcFo.net
どのアプリ?

98 :デフォルトの名無しさん:2016/12/26(月) 17:05:21.49 ID:hVGfnPVy.net
何言ってんだこいつ

99 :デフォルトの名無しさん:2016/12/27(火) 05:33:13.44 ID:j2XmLPD/.net
>>93
でもゼロから作るを読んでわからないんでしょ、仕方ないんじゃない?

100 :デフォルトの名無しさん:2016/12/27(火) 06:59:34.66 ID:MgmqZKtO.net
>>99

斉藤は途中まで読みましたが、簡単な本だと思いましたよ。

行列の通常の積のことを、なぜか「内積」などとよんでいましたが。

あれは何なんでしょう?

Numpy のメソッドも「dot」ですし。

おかしくないですか?

101 :デフォルトの名無しさん:2016/12/27(火) 07:28:55.29 ID:ywv/+eV5.net
OCRアプリを公開したのは橋本某という奴だっけ?
>>100
高校生?

102 :デフォルトの名無しさん:2016/12/27(火) 07:39:46.00 ID:A/QEGms7.net
>>100
ベクトルの内積は知ってる?

(a1,b1,c1,d1)・(a2,b2,c2,d2)=?

103 :デフォルトの名無しさん:2016/12/27(火) 07:43:15.67 ID:nxdkknoa.net
構うなって

104 :デフォルトの名無しさん:2016/12/27(火) 08:06:10.67 ID:MgmqZKtO.net
>>102

もちろん知っています。

ただ普通の行列の積を内積などと書いてある線形代数の本は
皆無だと思います。

105 :デフォルトの名無しさん:2016/12/27(火) 08:08:00.29 ID:MgmqZKtO.net
行列の内積などという言葉自体、見たこともありません。

グーグルで調べてみてください。
該当する検索結果は出てきませんから。

106 :デフォルトの名無しさん:2016/12/27(火) 08:17:50.89 ID:MgmqZKtO.net
斉藤は線形代数の本を読んだことがないのでしょうか?

107 :デフォルトの名無しさん:2016/12/27(火) 08:42:22.99 ID:ywv/+eV5.net
>>140
行列の内積アタヨー
https://core.ac.uk/download/pdf/39177848.pdf
http://repository.kulib.kyoto-u.ac.jp/dspace/bitstream/2433/170501/1/1726-13.pdf
http://techblog.adish.co.jp/entry/2016/07/11/IT%E3%82%A8%E3%83%B3%E3%82%B8%E3%83%8B%E3%82%A2%E3%81%AE%E3%81%9F%E3%82%81%E3%81%AEDeepLearning_%236_%E3%83%AC%E3%83%9D%E3%83%BC%E3%83%88
http://www.is.titech.ac.jp/~kojima/articles/B-399.pdf
http://www.kurims.kyoto-u.ac.jp/~kyodo/kokyuroku/contents/pdf/1174-13.pdf
http://www.is.titech.ac.jp/~kojima/articles/SDP0515.pdf

108 :デフォルトの名無しさん:2016/12/27(火) 09:13:50.19 ID:BExF4yI/.net
>>105
検索で出てくるのと
あなたの主張は何が違うの?

109 :デフォルトの名無しさん:2016/12/27(火) 09:15:46.89 ID:TouLLIAA.net
劣等感の塊みたいな人だな

110 :デフォルトの名無しさん:2016/12/27(火) 09:31:37.40 ID:MgmqZKtO.net
>>107

数学者が書いたもののようには見えません。
数学の素人が書いたもののように見えます。

111 :デフォルトの名無しさん:2016/12/27(火) 09:37:34.11 ID:MgmqZKtO.net
クラインの『行列プログラマー』
ストラングの『線形代数イントロダクション』

ってどうですか?

112 :デフォルトの名無しさん:2016/12/27(火) 09:40:49.96 ID:B94R3vH/.net
関流に弟子入りしてくるわ

113 :デフォルトの名無しさん:2016/12/27(火) 09:42:33.54 ID:V9Avqchs.net
ID:MgmqZKtOはNGでOK

114 :デフォルトの名無しさん:2016/12/27(火) 09:59:35.13 ID:8ZqPI6Q1.net
定期的に自己顕示欲だけの池沼が湧くな。これもブームの弊害かね

115 :デフォルトの名無しさん:2016/12/27(火) 10:19:52.82 ID:BExF4yI/.net
>>110
これは行列の内積なの?
どう判断してるの?

116 :デフォルトの名無しさん:2016/12/27(火) 10:22:05.75 ID:A/QEGms7.net
>>110
今までここに書いてた事は理解できるようになったのか?

117 :デフォルトの名無しさん:2016/12/27(火) 10:58:39.18 ID:Bf+HgAVn.net
ゆとりはここまでひどいのか、と

118 :デフォルトの名無しさん:2016/12/27(火) 12:06:20.05 ID:MgmqZKtO.net
杉浦光夫の解析入門I・II、佐武一郎の線型代数学くらいは読んでから、
機械学習の本を書いてほしいですね。

119 :デフォルトの名無しさん:2016/12/27(火) 12:07:50.23 ID:MgmqZKtO.net
このスレッドにいる人は、

プログラミングのための線形代数や非厳密な微分積分の本でお茶を濁しているような人が多いのでしょうか?

微分積分の本では、藤原松三郎の本がいいですね。

120 :デフォルトの名無しさん:2016/12/27(火) 12:09:53.24 ID:TouLLIAA.net
>>119
数学専攻も多いからw

121 :デフォルトの名無しさん:2016/12/27(火) 12:09:54.03 ID:Bf+HgAVn.net
>>118-119
それが言いたかったのか


122 :デフォルトの名無しさん:2016/12/27(火) 12:11:25.83 ID:A/QEGms7.net
>>119
で、理解できるようになったのか?

123 :デフォルトの名無しさん:2016/12/27(火) 12:12:25.51 ID:8ZqPI6Q1.net
前スレだと高校生で解析概論読む人もそこそこいたしな

124 :デフォルトの名無しさん:2016/12/27(火) 12:18:32.85 ID:8ZqPI6Q1.net
>>118
というか、あんたの読んだ本の著者の学歴知らんのかw

125 :デフォルトの名無しさん:2016/12/27(火) 12:19:50.82 ID:MgmqZKtO.net
>>122

理解できるようには書いてないという結論です。

126 :デフォルトの名無しさん:2016/12/27(火) 12:21:32.29 ID:A/QEGms7.net
>>125
自分で数式とか書いて考えたか?
手書きのノートをスマホで撮ってupしてみたら?

127 :デフォルトの名無しさん:2016/12/27(火) 12:22:40.97 ID:mZSoWMWH.net
>>119
解析と言わずに微積分と呼ぶのは高卒か文系なw

128 :デフォルトの名無しさん:2016/12/27(火) 12:24:21.96 ID:TouLLIAA.net
アホクサ、相手にする必要ないなw

129 :デフォルトの名無しさん:2016/12/27(火) 12:28:02.37 ID:8ZqPI6Q1.net
>>125
wwwwwwwww

130 :デフォルトの名無しさん:2016/12/27(火) 13:02:08.31 ID:ctL7TO+W.net
>>118
見得はなるなよ、馬鹿乙

131 :デフォルトの名無しさん:2016/12/27(火) 18:25:45.64 ID:+osbWtFI.net
畳み込みレイヤの逆伝播について馬鹿でも分かるような解説してるサイトってないですか?

132 :デフォルトの名無しさん:2016/12/27(火) 18:28:16.63 ID:MgmqZKtO.net
はじめてのPython AIプログラミング (BASIC MASTER SERIES)
金城俊哉
固定リンク: http://amzn.asia/4Ye6Y8Y

↑この本ひどい本ですね。
全然人工知能と関係ないです。

133 :デフォルトの名無しさん:2016/12/27(火) 19:07:49.90 ID:A/QEGms7.net
>>132
否定的なネガテイブな事ばかり考えても良くならないよ

134 :デフォルトの名無しさん:2016/12/27(火) 19:23:21.83 ID:2pCINWxP.net
>>133
あんた、優しいなw

135 :デフォルトの名無しさん:2016/12/27(火) 19:45:55.32 ID:+u19I21D.net
ゼロから作るDLは神だったけど、科学技術計算のためのPython入門も良さげな感じ
まだ始めしか読んでないからあれだけど通しで読んでみるわ

136 :デフォルトの名無しさん:2016/12/27(火) 19:48:38.39 ID:KfsP/kwc.net
>>134
自(己)満(足)だよ

137 :デフォルトの名無しさん:2016/12/27(火) 21:10:46.20 ID:8B7yPg0p.net
ChainerとKerasの中の人には前から因縁があったそうですが、
そこら辺の経緯ってどっかに残ってたりします?

138 :デフォルトの名無しさん:2016/12/27(火) 21:20:13.85 ID:FLc4rbgR.net
>>137
keras の方が普及しちまった今となってはどうでもいいだろ

139 :デフォルトの名無しさん:2016/12/27(火) 21:53:18.80 ID:XA/JnkuS.net
風車小屋に突撃したドンキホーテかっつうの

140 :デフォルトの名無しさん:2016/12/27(火) 22:11:56.04 ID:8B7yPg0p.net
確かにどうでも良いことなんですが、逆伝播法の仕組みみたいに表立って
聞けるような話ではないので。

141 :デフォルトの名無しさん:2016/12/27(火) 22:55:26.97 ID:YsHB459I.net
fcholletとbeam2d?

142 :デフォルトの名無しさん:2016/12/27(火) 23:59:30.94 ID:8B7yPg0p.net
2人の名前で検索したらGithubでやりあってるのが見つかりました
私なんかにはKerasの中の人の指摘が正しいように思えますが
面倒くさい人だってのは確かにそうだと

143 :デフォルトの名無しさん:2016/12/28(水) 04:46:27.76 ID:iVQacLIO.net
脳や神経がないのに迷路を解き、融合することで記憶を共有する黄色いスライム「モジホコリ」の不思議な力
http://gigazine.net/news/20161226-slime-molds/

こういう非脳型AIは、ニューロでないけど、どういうモデルでやればいいの?
粘菌もこんなタイプ

144 :デフォルトの名無しさん:2016/12/28(水) 09:16:38.65 ID:M5+1N1/+.net
この本、評判がいいみたいですね。読んだ人いますか?

Deep Learning (Adaptive Computation and Machine Learning series)
by Ian Goodfellow et al.
Link: http://a.co/6YFWvNv

145 :デフォルトの名無しさん:2016/12/28(水) 09:20:16.73 ID:+lExeUeR.net
読んだらチラシの裏に書いておいて

146 :デフォルトの名無しさん:2016/12/28(水) 10:21:05.62 ID:P6rjV5xA.net
>>143
量子計算

147 :デフォルトの名無しさん:2016/12/28(水) 11:31:37.04 ID:7EPEyULh.net
>>144

ネットで見れる

ttp://www.deeplearningbook.org/

148 :デフォルトの名無しさん:2016/12/28(水) 12:47:14.90 ID:kFL7wfb2.net
>>143
それ迷路解いてるんじゃなくて
どこにも繋がらない端線を捨ててるだけだろ

149 :デフォルトの名無しさん:2016/12/28(水) 14:41:34.38 ID:DD70kwBF.net
>>143
それはAIとかの話では無くて
物理、反応拡散系における現象を分析した話だよ。
そこのサイトにある論文著者の小林亮氏とかは
その分野で有名な先生。

150 :デフォルトの名無しさん:2016/12/28(水) 14:49:09.32 ID:yxR21hjj.net
これって最短じゃないよな
http://i.gzn.jp/img/2016/12/26/slime-molds/cap00018_m.jpg

151 :デフォルトの名無しさん:2016/12/28(水) 16:06:56.45 ID:F0TUuvlX.net
グラフの問題にできそう

152 :デフォルトの名無しさん:2016/12/28(水) 16:34:10.64 ID:ZJkyxH5w.net
>>132
書店で軽く読んだけど
こいつPythonとか機械学習分かってないわw

あまりにも酷い内容なんで、アマゾンのレビュー読んだら予想通り超低評価w

Javaのプログラマーがマルコフ連鎖でチャットロボット作ったよ。
AIだぞ!って本w

153 :デフォルトの名無しさん:2016/12/28(水) 16:55:27.62 ID:kFL7wfb2.net
この本以来の笑撃
https://www.amazon.co.jp/dp/4839917183

154 :デフォルトの名無しさん:2016/12/28(水) 16:56:51.51 ID:kFL7wfb2.net
こっちだった(どっちでもいいけど)
https://www.amazon.co.jp/dp/4839912025

155 :デフォルトの名無しさん:2016/12/28(水) 18:52:11.33 ID:1agFaW4W.net
俺、見事に騙されたよ
てっきり学習前の前処理等々を教えてくれるんだと思ってたら、20年ぐらい前にあった人工無能チャットの本だとかね・・・・

156 :デフォルトの名無しさん:2016/12/28(水) 19:23:14.70 ID:VdAWBzt5.net
馬鹿乙

157 :デフォルトの名無しさん:2016/12/28(水) 21:23:28.00 ID:fRMNEWhL.net
>>143 似たようなのは何度も見てるけどやっぱり面白いね
参考文献を見ればもっとちゃんとしたモデルがあるんだろうけど
適当ポイの安直なモデルでは
1. 餌は高さの極小値
鉄道網のビデオを見る限り勾配は餌周辺に局在化している
餌に匂いがあるけど遠くまで届かない
2. 黄色虫は乱歩と勾配を組み合わせで動く
乱歩のおかげで一旦極小値にトラップされても脱出することがある
極小値からの脱出は情報交換の結果かもしれない
3. 黄色虫同士は何らかの情報交換をする
情報交換があったとしても近距離の虫間で行われる
生物のお話ではここが面白いところなんじゃないかと思う

乱歩の入れ方は純粋にランダムでも良いし
各餌から作られる勾配を順繰りに回すとミニバッチみたくなる
対流の変化で匂いの流れてくる方向が変わるとか適当ポイなことを言ってみる
黄色虫の情報交換の仕方まで含めて色んなモデル化があると思う

158 :デフォルトの名無しさん:2016/12/28(水) 21:24:50.92 ID:TOwHPcdq.net
AlphaGoの状態評価ネットワークって、なんで入力層って19*19*48+1なの?
19*19*3+1なら分かるけど48ってどっからきたなんの情報を突っ込んでるんだよ

159 :デフォルトの名無しさん:2016/12/28(水) 21:44:07.12 ID:1SG36hBV.net
>>158
Feature # of planes Description
Stone colour 3 Player stone / opponent stone / empty
Ones 1 A constant plane filled with 1
Turns since 8 How many turns since a move was played
Liberties 8 Number of liberties (empty adjacent points)
Capture size 8 How many opponent stones would be captured
Self-atari size 8 How many of own stones would be captured
Liberties after move 8 Number of liberties after this move is played
Ladder capture 1 Whether a move at this point is a successful ladder capture
Ladder escape 1 Whether a move at this point is a successful ladder escape
Sensibleness 1 Whether a move is legal and does not fill its own eyes
Zeros 1 A constant plane filled with 0

Player color 1 Whether current player is black

160 :デフォルトの名無しさん:2016/12/29(木) 08:31:16.49 ID:W2YynE73.net
有能な158がいると聞いて

161 :デフォルトの名無しさん:2016/12/29(木) 16:24:55.55 ID:ZUGemRzA.net
パターン識別をマケプレで¥2700で入手できた。
これから読む。チラ裏御免。

162 :デフォルトの名無しさん:2016/12/29(木) 18:01:39.29 ID:o8H9FYt3.net
シンギュラリティって荒唐無稽ですか?

163 :デフォルトの名無しさん:2016/12/29(木) 18:05:34.00 ID:YJzV/tDH.net
特異性なんか当たり前

164 :デフォルトの名無しさん:2016/12/30(金) 00:56:18.22 ID:0eCako1D.net
こんな下らんことやるよりクリエイティブなことしたりモノづくりしたり外に出て汗水流した方が遥かに社会に貢献できる、これが社会真理ってやつだ

165 :デフォルトの名無しさん:2016/12/30(金) 01:00:11.20 ID:ejHHDkJ5.net
ちんこ

166 :デフォルトの名無しさん:2016/12/30(金) 13:09:27.37 ID:woxN1lXt.net
>>164 オウム神理教

167 :デフォルトの名無しさん:2016/12/31(土) 00:03:12.39 ID:qTR6JDNw.net
早くスーパー人工知能で俺の頭を電脳化して
毎日MMDとセックスする生活にさせてくれ

168 :デフォルトの名無しさん:2016/12/31(土) 01:43:43.83 ID:Mort7OiE.net
人工知能が重要なのは確かだが、一つの知識に過ぎず、それだけで人を感動はさせられない。
ピカソにとっての絵の具のようなもの。大切なのはそれを使う創造力だよ。

169 :デフォルトの名無しさん:2016/12/31(土) 02:08:10.49 ID:qTR6JDNw.net
創造力も人工知能が何とかしてくれるだろ

170 :デフォルトの名無しさん:2016/12/31(土) 05:33:57.32 ID:2NsOdIiQ.net
機械学習が人工知能でないのは
RPGを攻略できないことで証明できる
あと初見でクリアとか早解きもできない。

171 :デフォルトの名無しさん:2016/12/31(土) 05:44:52.74 ID:+pL8bn3d.net
>>170
学習したのが人工知能だべ

172 :デフォルトの名無しさん:2016/12/31(土) 06:23:04.77 ID:2NsOdIiQ.net
>>171
知能ではない。反射と言った方がいい

173 :デフォルトの名無しさん:2016/12/31(土) 07:21:15.39 ID:KFIMAqv2.net
RPGなんて単なる作業だから

174 :デフォルトの名無しさん:2016/12/31(土) 14:26:49.84 ID:2NsOdIiQ.net
今の機械学習って基本的に一本道のものを
クリアすることしかできないからね。
クリア条件を設定するのは人間

RPGのように条件を満たしていくもの
(複数のクリア条件があると考えればいい)は
人間がクリア条件を設定する以上
コンピュータが自分で考えてる感を出すことはできない。

手数の数で言えばドラクエT程度でも将棋や囲碁よりも
遥かに多いし、評価関数を設定することもできない

ランダムで動かしてたまたまクリアできるパターンを
探すしかないので何億年とかかるだろう。

175 :デフォルトの名無しさん:2016/12/31(土) 14:34:09.25 ID:qTR6JDNw.net
今の、今は、今が
おまえいつまで今にしがみついとるんや

176 :デフォルトの名無しさん:2016/12/31(土) 14:37:35.92 ID:2NsOdIiQ.net
>>175
今の機械学習と同じ仕組みじゃだめって言ってるんだよ。
根本的に変わるのはいつだろうねw

177 :デフォルトの名無しさん:2016/12/31(土) 14:38:41.04 ID:2NsOdIiQ.net
あと「今の」という言葉は>>174で一回だけ使ったが
それ以外「今」という単語すら使っていない。

「今」にしがみついているのは>>175では?w

178 :デフォルトの名無しさん:2016/12/31(土) 14:41:57.38 ID:pmRRRoTY.net
DeNAはFFRK(FFレコードキーパー)のボス戦の難易度を機械的に数値化するためにDQNを使う研究をしているそうな。
CEDEC2016での話。

179 :デフォルトの名無しさん:2016/12/31(土) 14:42:26.86 ID:2NsOdIiQ.net
機械学習というのは単に機械的な学習という意味でしかない。
そして何を学習しているかというと「反射」を
学習していると考えたほうがいい。

そこに知能はない。

知能+学習であれば、あんな何十、何百回も
同じことをしなくても学習できる。
事実人間は数回の学習で、スーパーマリオをクリアできる。

反射の学習である以上、何百回も繰り返さなければ
学習できないことは明らかで、反射で進むことができない
ドラクエのようなRPGをクリアすることは不可能。

これからは人工知能が必要になってくる。

180 :デフォルトの名無しさん:2016/12/31(土) 14:51:39.63 ID:/2077635.net
>>179
知能の定義は?

181 :デフォルトの名無しさん:2016/12/31(土) 14:53:41.27 ID:/2077635.net
>>179
キャラとの会話から情報収集するのは
webから情報収集するのと同じ仕組みじゃね?

あなたに実現出来ないものでも他の人には実現出来たりする

182 :デフォルトの名無しさん:2016/12/31(土) 15:07:23.20 ID:2NsOdIiQ.net
>>180
感情(ただし感情を表現する行動のことではない)

泣くというのは、反射でもできる。だから泣くという行動を
見ただけで悲しいという感情があるとは言えない。

嬉しいときに嬉しいと思う感情
悲しいときに悲しいと思う感情

それが知能

感情には他にも色んな種類があるだろう。疲れたというのも感情の一つだろう。
また何が楽しいかは人それぞれ違うように、感情は人それぞれ違う。

ゲームなんかも悲しいと思う感情を嬉しいと思う感情に
変えるという条件に従って学習すればいいと思うよ。

今はその感情が作り出せないわけだね。

183 :デフォルトの名無しさん:2016/12/31(土) 15:09:00.22 ID:2nWLAK4g.net
知能とは「感情」  どゃっ!


ぷっ

184 :デフォルトの名無しさん:2016/12/31(土) 15:23:31.95 ID:2NsOdIiQ.net
>>181
> webから情報収集するのと同じ仕組みじゃね?
それは情報収集するだけだろw

今の情報の利用の仕方は知能で考えて利用しているわけじゃない。
反射を行うための刺激として利用しているだけ。
刺激に対してどう反射すべきかは人間が定義している。

RPGは刺激に対する反射が複数必要なため人間が定義しなければ
いけない部分が多くなる。だから機械学習だけでクリアすることができない。

正確に言うとRPGというゲーム全体をクリアすることは天文学的な時間がかかるので不可能という意味。
イベントごとに人間がクリア条件を定義すれば現実的な時間でクリアすることはできるだろう。

わかりやすく言えば攻略チャートをもう少し詳しくしたようなものを人間が用意する。
「王の間を出る」「ラダトーム城を出る」「町に入る」「町で武器防具を買う」
「近くでレベル上げをする」「ロトの洞窟へ行く」「墓を調べる」「マイラの町へ行く」
「足元をしらべて妖精の笛を探す」・・・
もはや機械学習でゲームをクリアしているようには見えないというのはわかると思うけどw

185 :デフォルトの名無しさん:2016/12/31(土) 15:24:12.17 ID:2NsOdIiQ.net
>>183
なんだよw 反論なしかよw
よっぽど言い返せないセリフだったんだなw

186 :デフォルトの名無しさん:2016/12/31(土) 16:30:27.50 ID:/2077635.net
>>182
人間に感情が有るとか無いとかどうやって判別する?
人工知能に感情が有るとか無いとかどうやって判別する?

感情がある事が何故知能があることの定義と言える?

感情がある事は感情の定義でしか無いのでは?

187 :デフォルトの名無しさん:2016/12/31(土) 16:31:26.52 ID:/2077635.net
>>185
別人であることも判別できなかった程度の知能のようだが?

188 :デフォルトの名無しさん:2016/12/31(土) 17:07:20.97 ID:2NsOdIiQ.net
>>186
> 人間に感情が有るとか無いとかどうやって判別する?
> 人工知能に感情が有るとか無いとかどうやって判別する?

今の科学では無理だよ。
だから人口知能は作れない。

189 :デフォルトの名無しさん:2016/12/31(土) 17:09:52.52 ID:2NsOdIiQ.net
>>186
「人工知能 感情」でぐぐってみたら?

想定外にこんなのが引っかかったw
まあ俺程度が自力で思いつく程度のことだから
他の人もわかってるだろうね。

孫正義が語るコンピュータ進化論〜人工知能に感情は必要か?
http://logmi.jp/39607

> コンピューターに感情を持たせるべきか
>
> 実は脳にはもう1つだけ重要な、最も重要な機能があります。
> それは感情というものです。人間の脳は大脳がこの3つで成り立っていると。
> 知恵と知識を道具として使い、人間の脳は何をゴールに、何を目的に働くかというと、
> 自分の脳が一番心地よいと感じる感情を満たすために、知恵と知識を使っているわけです。
> 一番脳が心地よいと、快感を感じる。お腹がすいた。それを満たす。眠たい。それを満たす。
> お金を稼ぎたい。それを満たす。立派な家に住みたいという欲望。それを満たす。
> 感情の欲望を満たすという事のために、知恵と知識という道具を使って、脳は機能していくわけであります。

190 :デフォルトの名無しさん:2016/12/31(土) 17:10:50.71 ID:2NsOdIiQ.net
>>187
> 別人であることも判別できなかった程度の知能のようだが?

別人? 俺は>>183に言っただけで、
>>183が誰と同じとか言ってないんだけど?

191 :デフォルトの名無しさん:2016/12/31(土) 17:26:38.24 ID:0wyNBkN0.net
>>190
これは恥ずかしい

192 :デフォルトの名無しさん:2016/12/31(土) 17:32:04.81 ID:/2077635.net
>>188
何故判別可能かどうかと作れるかどうかが同じなのか?

人間に感情は無いと言う仮説も真偽は定かでは無いって事だろ
だったら人間に知能が無いと言うの仮説も真偽がわからないだろ

193 :デフォルトの名無しさん:2016/12/31(土) 17:32:23.70 ID:2NsOdIiQ.net
ID変えて別人の振りをする手法もあるなw

194 :デフォルトの名無しさん:2016/12/31(土) 17:33:34.91 ID:qTR6JDNw.net
感情モンキーが何か言ってる

195 :デフォルトの名無しさん:2016/12/31(土) 17:33:54.20 ID:2NsOdIiQ.net
>>192
> 何故判別可能かどうかと作れるかどうかが同じなのか?

計測できないものは改善(コントロール)できないから

196 :デフォルトの名無しさん:2016/12/31(土) 18:19:40.92 ID:KFIMAqv2.net
RPGを解くのに感情も知能もいらないから

197 :デフォルトの名無しさん:2016/12/31(土) 18:34:11.30 ID:/2077635.net
>>195
相手が何も言わなくなる事がないか?
それは君の言ってることがアホらしくて開いた口が塞がらなくなるからだよ

知能である→観測できない
対偶は
観測できる→知能ではない

君は自分の感情が判らない?

文章や世の中にある数式を観測できるだろう

198 :デフォルトの名無しさん:2016/12/31(土) 21:19:31.16 ID:xlxnO7Jq.net
3歳児にマリオを何十回かやらせても、
なかなかクリアするまでに至るのは難しい。

199 :デフォルトの名無しさん:2016/12/31(土) 21:26:25.03 ID:iQXdsuLC.net
dqnはクリアできたんだっ毛か

200 :デフォルトの名無しさん:2016/12/31(土) 22:24:24.84 ID:Fla0bGb8.net
何十回と何万回を比較されても

201 :デフォルトの名無しさん:2016/12/31(土) 22:44:19.67 ID:NsUC/Yqz.net
幼児に何万回もやらせたら泣くだろ
文句たれない人工知能は経営者から見たら使い勝手が良いのだよ
わりとマジで

202 :デフォルトの名無しさん:2016/12/31(土) 23:02:51.99 ID:Mort7OiE.net
人工知能は自らの運命を創れない。人工知能の運命は人が与えるものだからね。
これが人と人工知能の決定的な差だ。そして人は自らの運命を創る職人でもある。

203 :デフォルトの名無しさん:2016/12/31(土) 23:03:28.38 ID:5P7T9Bui.net
やった!うまくいった!

なぜ?

そんなことは知らない。とにかくうまくいった!

そういう分野だから、この分野は。

204 :デフォルトの名無しさん:2016/12/31(土) 23:12:56.12 ID:73Zm0FDb.net
>>203
> やった!うまくいった!
>
> なぜ?
>
> そんなことは知らない。とにかくうまくいった!
>
> そういう分野だから、この分野は。

なんか人間の脳みたいだね

205 :デフォルトの名無しさん:2016/12/31(土) 23:17:47.99 ID:/2077635.net
>>202
人間の知能の一部でも人工知能にできたら良いんだよ

206 :デフォルトの名無しさん:2016/12/31(土) 23:23:15.29 ID:MpB5GUVc.net
猫もしゃもじも tensorflow の一年でちた
グーグルの一人勝ちですな

207 :デフォルトの名無しさん:2016/12/31(土) 23:41:11.06 ID:Zq+mO6vy.net
自分の企業で機械学習取り入れ始めてるけど、なぜうまくいかないかの説明が出来なくて困ることがある。

確定論じゃないにしても、理屈をちゃんと抑えるべきと思いますがいかがでしょう?

パソコンの検索機能とかならまだ問題ないけど、車の自動運転とか命に関わるようなところには使っちゃいけない分野と思う。

208 :デフォルトの名無しさん:2017/01/01(日) 00:01:21.29 ID:VtFWW7J2.net
人工知能はすごい。
でも、それを考えたやつはすごくない。

そんな時代が来るかもしれませんね。

209 :デフォルトの名無しさん:2017/01/01(日) 00:13:27.85 ID:ixUhv5Oc.net
あけおめ、ことよろ!

>>207
どこを笑えばいいの?

210 :デフォルトの名無しさん:2017/01/01(日) 00:33:18.29 ID:HWMPohl5.net
>>207
100%確実なものは無い
飛行機も落ちる事はある
自動車を人間が運転しても事故は起きる
自動運転と組み合わせる事で防げる事故もあるだろうし
自動運転で新たに発生する事故もあるだろう

プラマイ相殺して安全な方を選択すれば良い
運転が上手い人は自分で運転して高齢者とかは自動運転とか

211 :デフォルトの名無しさん:2017/01/01(日) 01:12:32.04 ID:PlmHakbh.net
>>210
分かってないね。
世に出したときには、設計者側はその責任を負わなきゃいけない。
プラマイで選択するのを消費者側に押し付けられない

問題が起きたときの理由が、AIなんてそうもんだからなんて言えない

212 :デフォルトの名無しさん:2017/01/01(日) 01:16:35.87 ID:PlmHakbh.net
そういう安全規格がすであるし、世に出すならその規格を変えるという話が必要。

213 :デフォルトの名無しさん:2017/01/01(日) 01:25:24.28 ID:BQTD2Cj/.net
呆け老人やスマホでゲームやってるやつよか、AI運転のほうが安心!

214 :デフォルトの名無しさん:2017/01/01(日) 01:33:16.30 ID:HWMPohl5.net
>>211
人間が設計するものに完璧なものなんてない
開発時点で予測可能な事には対応すべきだが
予測不可能な事には対応出来ないだろ
その上で利用者が選択すれば良い

215 :デフォルトの名無しさん:2017/01/01(日) 01:43:39.97 ID:pSLhVHXC.net
元旦からなにやってんだか

216 :デフォルトの名無しさん:2017/01/01(日) 06:05:12.62 ID:xVDWlOx4.net
そのための保険だろう

自動運転向けの保険商品が出てくるよ

217 :デフォルトの名無しさん:2017/01/01(日) 06:45:29.16 ID:fgGBcYYu.net
AI脅威論は他でやれ
多分文系の板にあるだろう
機械学習が人工知能だとは思えないし

218 :デフォルトの名無しさん:2017/01/01(日) 07:12:55.41 ID:ixUhv5Oc.net
>>217
文系の人?www

219 :デフォルトの名無しさん:2017/01/01(日) 07:58:00.67 ID:8xU3lXOJ.net
>>217
釣りか?

220 :デフォルトの名無しさん:2017/01/01(日) 08:43:39.03 ID:HNTVc2af.net
プログラム板のスレで最も高卒が集まるスレはここだろうな

221 :デフォルトの名無しさん:2017/01/01(日) 09:27:17.82 ID:0e+/PP5g.net
>>216 出てきても、オール自動運転車になれば損保会社の売り上げガタ落ちだ。

222 :デフォルトの名無しさん:2017/01/01(日) 09:30:25.75 ID:0e+/PP5g.net
>>210 従来の自動車の保険料はバカ高になる。

223 :デフォルトの名無しさん:2017/01/01(日) 11:30:08.52 ID:PlmHakbh.net
二度目だけどもう一度言います
『設計者はその責任を負わなきゃいけない』
(216は論点ズレてる)

例え上手く出来てもそれを採用する側にとっては、ブラックボックスは採用し難い。

事が起きて、想定外だったなんて言えないからね。

224 :デフォルトの名無しさん:2017/01/01(日) 11:46:09.50 ID:fgGBcYYu.net
222が採用しなければいいだけ
ここに来なければいいだけ

>『設計者はその責任を負わなきゃいけない』
お前の独自ルールやん
それが普遍的真理である証明よろ

225 :デフォルトの名無しさん:2017/01/01(日) 11:52:57.28 ID:wqx7ZaQB.net
良く出来た人工知能は人間と区別出来ないってことにならないとおかしい

226 :デフォルトの名無しさん:2017/01/01(日) 12:14:50.94 ID:eDsg/ewK.net
電気羊の夢を見そうだな

227 :デフォルトの名無しさん:2017/01/01(日) 12:16:10.39 ID:swtihv5O.net
>>224
>>223は、人工知能の応答だよ
要は知能は責任負いたくないと
人間臭くて良いね

228 :デフォルトの名無しさん:2017/01/01(日) 13:04:26.78 ID:P8e5/VJ1.net
>>224
お前は、「自動運転で起きた事故の責任は一切負わない」という免責付きの車に乗る勇気があるか?

229 :デフォルトの名無しさん:2017/01/01(日) 13:22:21.53 ID:PlmHakbh.net
>>224
独自ルールもなにも、実際に事が起きたら責められるのは企業。

230 :デフォルトの名無しさん:2017/01/01(日) 13:34:16.41 ID:HWMPohl5.net
>>222
事故の確率が下がれば保険料は安くなる

231 :デフォルトの名無しさん:2017/01/01(日) 13:35:48.00 ID:HWMPohl5.net
>>223
あなたは何でも想定できるの?
どう言う仕組みかメカニズムか説明できるものだけだと思ってる?

232 :デフォルトの名無しさん:2017/01/01(日) 13:38:06.65 ID:HWMPohl5.net
>>228
乗ってるならその人がブレーキ踏めば良いだけ
今の免許制度が無くなるわけではない
人+自動運転になる

233 :デフォルトの名無しさん:2017/01/01(日) 13:45:54.94 ID:xVDWlOx4.net
>>228
当たり前ですが、統計的に人間の運転より確実に信頼性が高い、
というレベルに達している前提にすれば、
喜んで自動運転車に乗りたいですねー

234 :デフォルトの名無しさん:2017/01/01(日) 13:56:46.78 ID:iln4lwIn.net
おそらく確率的には人間を超えるだろうが
その代わり人間なら絶対しないタイプのポカで事故ると思う

235 :デフォルトの名無しさん:2017/01/01(日) 15:10:45.61 ID:9BvT7Lqk.net
まあそういうのは事故が起こったら直せるんじゃないかな

236 :デフォルトの名無しさん:2017/01/01(日) 15:15:18.89 ID:PlmHakbh.net
だからって最初の事故で死んでもいい人はいない

237 :デフォルトの名無しさん:2017/01/01(日) 15:25:26.34 ID:PlmHakbh.net
って、企業側は考えないといけない

238 :デフォルトの名無しさん:2017/01/01(日) 16:16:06.90 ID:TmY63Tvh.net
>>237
今の自動車と比べて安全になるなら良いんじゃね?
事故ゼロなんてあり得ないんだし

239 :デフォルトの名無しさん:2017/01/01(日) 17:36:42.52 ID:AzZ4q8lt.net
頭上を飛ぶオスプレイより安全です

240 :デフォルトの名無しさん:2017/01/01(日) 20:06:25.92 ID:4//KzaMu.net
>>239
オスプレイは自動運転だから安心

241 :名無し集中:2017/01/01(日) 22:23:35.84 ID:jy2g6db8.net
>>234
人のほうが山ほどアクシデントやインシデントおこしててこれからもおこしつづける
AIは1度しかおこさず2度とおこさず全てが共有する

242 :デフォルトの名無しさん:2017/01/01(日) 22:41:00.55 ID:Q5foJVqk.net
現状を理解してない、かつ、根本的に勘違いしてるやつがいるやつ多くね。車もオスプレイも基本的には制御工学、つまりバリバリ確定論の数学でコントロールしてる。。

なんでAIで全て精度よく賄えるみたいな流れになってんの?

現状の自動運転もなるべくフィードバック制御だけで行い、どうしようもないところだけ機械学習の結果取り入れるって流れになってる。

ディープラーニングとかは話題性があるからクローズアップされてるにすぎない

243 :デフォルトの名無しさん:2017/01/01(日) 22:45:38.14 ID:Q5foJVqk.net
オスプレイの自動運転はただの制御

244 :デフォルトの名無しさん:2017/01/01(日) 22:53:02.45 ID:4//KzaMu.net
まとめると、オスプレイは危険だから飛ばすな、ということ

245 :デフォルトの名無しさん:2017/01/01(日) 23:54:17.85 ID:OqvOLHUa.net
↑纏めになってない
帰納的に結果が良かったから‥‥じゃなくて、演繹的にバックグラウンドがあるから‥‥ほうが世に拡がりやすい。

この分野の専門家には最初から諦めないで欲しいね。。
演繹で進めることを。

246 :デフォルトの名無しさん:2017/01/02(月) 01:19:17.15 ID:BRbuYFoH.net
何でもかんでも演繹で進められたらイノベーション()なんて起きないんですよ

247 :デフォルトの名無しさん:2017/01/02(月) 02:01:14.67 ID:7es46yNp.net
しかし科学は基本的にずっと演繹的手法によりこの世界を進化させてきた事実がある

248 :デフォルトの名無しさん:2017/01/02(月) 02:35:19.09 ID:jfcTsyjd.net
えっ?

249 :デフォルトの名無しさん:2017/01/02(月) 02:41:42.22 ID:ouOprX8i.net
ここで責任問題とかを考えても仕方なくね
技術的な課題は何かとか考えないのか

250 :デフォルトの名無しさん:2017/01/02(月) 03:17:21.95 ID:++c0O2T5.net
数式も読めなければプログラムも書けない奴らが一気に集まっちゃったんだよ
どうしようもない

251 :デフォルトの名無しさん:2017/01/02(月) 04:12:53.14 ID:gdAYBpSh.net
良く出来たAIはまるで人間と同じように間違う

252 :デフォルトの名無しさん:2017/01/02(月) 05:30:22.93 ID:7LRG5Jzi.net
表面上だけな
しかしすぐ似非ものだと分かるのが人間なんだよ

253 :デフォルトの名無しさん:2017/01/02(月) 07:24:58.26 ID:ASj0fxen.net
>>242
AIで少し未来のことを予測できるから

フィードバックは事後対応しか出来ない

254 :デフォルトの名無しさん:2017/01/02(月) 07:27:50.93 ID:ASj0fxen.net
帰納も演繹も両方を繰り返しながら進んできただろ

個々の現象から帰納的に仮説を考えて
それを演繹的に別の現象に当てはめて実験で確認する
その仮説と検証の繰り返しが科学

255 :デフォルトの名無しさん:2017/01/02(月) 08:25:32.42 ID:JIP1y7CT.net
エセ科学だろ

256 :デフォルトの名無しさん:2017/01/02(月) 09:27:48.89 ID:ASj0fxen.net
>>255
では科学って何?

257 :デフォルトの名無しさん:2017/01/02(月) 09:37:14.22 ID:vZERqpOJ.net
>>256
AI を指してるんだろ、日本語を勉強しようぜ

258 :デフォルトの名無しさん:2017/01/02(月) 10:06:27.56 ID:bgjbJVB/.net
俺も253の意見に同意

259 :デフォルトの名無しさん:2017/01/02(月) 10:13:17.30 ID:vZERqpOJ.net
深層学習なんて場当たりなだけじゃん

260 :デフォルトの名無しさん:2017/01/02(月) 10:30:21.32 ID:bgjbJVB/.net
場当たりなの?

261 :名無し集中:2017/01/02(月) 10:35:30.58 ID:rGDFkzYs.net
>>254くんはパースよんだことないのかな

262 :デフォルトの名無しさん:2017/01/02(月) 10:47:45.64 ID:CPceoiNS.net
>>260
場当たりだろ
工業製品の機能や品質や安全性は最終的にはブラックボックステストという帰納的手法によって客観的に担保されるわけだが、
それはあくまで製品の設計や製造が常識的な演繹によって行われていることが前提
帰納的にテストをパスするように作ったりしたら何一つ用を果たせないゴミしかできない
単にテストケースの数の問題と言ってしまえばそれまでだが、ハードウェアのテストにはどうしても経済的な制約があるからな

263 :デフォルトの名無しさん:2017/01/02(月) 11:18:19.65 ID:ASj0fxen.net
>>262
学習後は確定的に動く

264 :デフォルトの名無しさん:2017/01/02(月) 11:19:47.51 ID:ASj0fxen.net
>>257
AIはまだ未完成で面白い領域とも言えるだろ
他の人が解明した事を学ぶだけなら不満だろうけど

265 :デフォルトの名無しさん:2017/01/02(月) 11:21:40.51 ID:VePW7069.net
>>254
実際この分野は帰納的なほうに片寄ってると言わざるを得ない

266 :デフォルトの名無しさん:2017/01/02(月) 11:23:49.74 ID:CPceoiNS.net
>>263
その確定的な挙動をどうやって確認するの?
深層学習なら結局テストによって帰納的に調べることになるよね

267 :デフォルトの名無しさん:2017/01/02(月) 11:24:00.35 ID:VePW7069.net
>>263
想定されてない事象に対しては?

268 :デフォルトの名無しさん:2017/01/02(月) 11:26:17.33 ID:ASj0fxen.net
>>265
きっちり半々の状態が維持されるわけない
帰納的な方が多いフェーズ
演繹的な方が多いフェーズ
とかいろいろ変化しながら進む

会計にはBSとPLがあるがどちらを重視するかは時代によって変遷している
これと同様

269 :デフォルトの名無しさん:2017/01/02(月) 11:27:15.85 ID:VePW7069.net
>>268
具体例は?

270 :デフォルトの名無しさん:2017/01/02(月) 11:28:05.56 ID:VePW7069.net
失礼訂正
この分野の具体例は?

271 :デフォルトの名無しさん:2017/01/02(月) 11:29:26.01 ID:ASj0fxen.net
>>267
想定されてない事象は通常のプログラムでも例外になる

272 :デフォルトの名無しさん:2017/01/02(月) 11:31:05.65 ID:ASj0fxen.net
>>266
確定的な挙動は数式で表現できるようになる

273 :デフォルトの名無しさん:2017/01/02(月) 11:31:17.06 ID:VePW7069.net
>>271
じゃあ、抑えられないんだね。
出荷できないよそんなんじゃ

274 :デフォルトの名無しさん:2017/01/02(月) 11:37:37.90 ID:ASj0fxen.net
>>273
今のAIじゃない通常のプログラムでも例外になると言っている
完璧な商品でないと出荷出来ないなら世の中に商品はなくなる

完璧な商品の具体例は?

275 :デフォルトの名無しさん:2017/01/02(月) 11:38:51.87 ID:ASj0fxen.net
>>270
もっと長い時間の流れを言っている

この分野でもバックプロバゲーションとか
ギブスサンプリングの応用とかあるんじゃね?

276 :デフォルトの名無しさん:2017/01/02(月) 11:42:41.68 ID:VePW7069.net
>>274
>完璧な商品でないと出荷できないなら世の中に商品はなかなる

それはあなたが言うべきこと/決めるべきことではない。

企業側から見れば、一つ問題が起きただけで会社が傾くことがある。

出荷テストの際、想定外の応答を見るのもテスト項目の一つだよ

277 :デフォルトの名無しさん:2017/01/02(月) 11:46:27.89 ID:vZERqpOJ.net
流れ読まずに、(lstm とかの関係の) attention の概要が分かるサイトとか知ってる人、教えて!

278 :デフォルトの名無しさん:2017/01/02(月) 11:47:55.80 ID:ASj0fxen.net
>>276
その想定外と言うのも準備したテストケースでしかないのでは?
それなら今のテストケースを機械学習後の確定的な動作をする商品でテストして判定すれば良い

279 :デフォルトの名無しさん:2017/01/02(月) 11:49:33.41 ID:JIP1y7CT.net
>>277
RNNか。このスレで技術的なこと聞いても無意味

280 :デフォルトの名無しさん:2017/01/02(月) 11:53:28.25 ID:VePW7069.net
それは>>262が言ってるように、考えられる有限個を用意するしかなくて、コストとの相談になる。

結局、理論的な保証が欲しいと言ってるのだが

281 :デフォルトの名無しさん:2017/01/02(月) 11:53:35.15 ID:ANqkDSqR.net
まあ航空機レベルの安全性は確率制御前提のシステムには荷が重すぎるな
それでなくとも物理レベルで確率的不具合と日夜戦ってるからな

仮に間違っても「ゴメンまちがっちゃった、テヘ」で済むものが当面は中心になるだろう

282 :デフォルトの名無しさん:2017/01/02(月) 12:01:59.62 ID:ASj0fxen.net
>>280
理論的な保証が欲しいのなら自分で解明すればいいのでは?

iPS細胞はどうすれば初期化されるか判っているが
何故?どんなメカニズムで?と言うのは判っていない

最先端分野だから未解明なこともあるだろうよ


商品化については出来上がった商品をテストで品質保証すれば良いだけでは?
理論より実際の現象の方が正しいと考えるべき
統計的に許容範囲の確率に収まれば良い
どの程度許容するかは用途による

283 :デフォルトの名無しさん:2017/01/02(月) 12:03:22.89 ID:VePW7069.net
『テヘ』
は通らないと言ってるんだが、
東京のど真ん中に飛行機突っ込んだら誰がどう言い訳すんの?

284 :デフォルトの名無しさん:2017/01/02(月) 12:13:19.73 ID:VePW7069.net
>>282
>>245で言った通りこの分野の専門家には演繹にもっと視点をおいて欲しい
専門家でないところに理論をなげんな

285 :デフォルトの名無しさん:2017/01/02(月) 12:22:09.32 ID:ANqkDSqR.net
理論的観点は「間違うとしたら、どう間違うか」なんだと思うが、
これは機械学習の仕組みというよりは食わせるデータに依存する
この辺が難しいところなんだな
つまり条件をプログラム化する際条件フラグがプログラム上に存在しない状態
本当はどう間違うかわかったら、それも機械学習的な対処経路を作らなければならないんだろうけど
機械学習をアルゴリズム的に使用する方法が未解明なもんだからいちいち確定条件で人間がプログラムしている
まだまだ不完全だよAIは

286 :デフォルトの名無しさん:2017/01/02(月) 12:26:09.22 ID:aVtLyaDs.net
>>276
確かに面接で人事担当が
なんで今ここでそれを聴くみたいな
KYな質問してくることがあるが
あれはそれだったんだな

287 :デフォルトの名無しさん:2017/01/02(月) 12:27:24.00 ID:ASj0fxen.net
>>283
今までも飛行機事故は起きた
ものすごく低い確率で今でもその事象は発生しうるだろう
AIを使ってもそれと同程度の確率であるとこを統計的に示せればあとは選択次第じゃないかな

288 :デフォルトの名無しさん:2017/01/02(月) 12:28:49.92 ID:ASj0fxen.net
>>284
専門家になれば良いんじゃね?
理論を知りたいんだったら
あと職業と研究は別でも不可能ではない
大変さは違うけどな

289 :デフォルトの名無しさん:2017/01/02(月) 12:30:12.35 ID:ASj0fxen.net
>>285
完全に判ってるなら先端領域では無いな

290 :デフォルトの名無しさん:2017/01/02(月) 12:32:51.31 ID:GdcUHK9D.net
少なくとも君は「無い」の使い方を間違っている

291 :デフォルトの名無しさん:2017/01/02(月) 12:45:39.72 ID:VePW7069.net
>>287
確率が低いことをどう証明すんの?
実機飛ばすしかないよね。

あと個人的には、人間がミスする事象とAIがミスする事象が同じならば、単純に数値で比較すればよいが、お互いの差集合が違う場合、単純に数値で比較したらダメだと思う

>>288
一般論として専門家は最初からお手上げすんなと言ってるんだが。

292 :デフォルトの名無しさん:2017/01/02(月) 12:57:56.88 ID:VePW7069.net
ちな、数値で比較したらダメとは数学的にという意味じゃないよ。
想定外を抑えてないってこと。

293 :デフォルトの名無しさん:2017/01/02(月) 13:34:55.38 ID:bgjbJVB/.net
ID:VePW7069 この人、微妙に現場の人っぽいけど
もう少し立場を明確にしてほしい

絶対にエラーが起きないことを目指している人なのか
費用対効果で許容されるエラー率をクリアすることを目指している人なのか

飛行機は自動運転されているし
新幹線や地下鉄も自動運転だ

自動車業界の人なのだろうか

ジジイに運転させてアクセルとブレーキ踏み間違えたテヘは許されるのか?

294 :デフォルトの名無しさん:2017/01/02(月) 13:37:23.89 ID:bgjbJVB/.net
要は機械学習による制御を演繹的に理解できたら気が済むのか?

295 :デフォルトの名無しさん:2017/01/02(月) 13:40:28.43 ID:B2LhGdxG.net
>>293
民事と刑事でばつ受けて
赦される

296 :デフォルトの名無しさん:2017/01/02(月) 13:52:53.71 ID:+O6Vfcqf.net
機械学習って工学的要素が強くて実証結果重視だから、理論的保証といってもねえ
遺伝的食品にも安全性云々とか宣って反対しそうだな

297 :デフォルトの名無しさん:2017/01/02(月) 14:01:48.51 ID:ANqkDSqR.net
公共交通は問題発生時にその問題に対処するマニュアルなんかを作っている
AIがたとえ間違っても、そのマニュアルに記載してあるような事例であれば、運用の想定内ということになる
ところが人間よりエラーが少ないAIが、マニュアルに載っていないエラーを起こしたらどうなるか
それを危惧してるんだと思うよ

298 :デフォルトの名無しさん:2017/01/02(月) 14:08:17.00 ID:ASj0fxen.net
>>291
何で航空機にこだわってるのか知らないけど
ミニチュアとか実機でもテストするだろうね

299 :デフォルトの名無しさん:2017/01/02(月) 14:09:16.85 ID:ASj0fxen.net
>>297
具体例は?

300 :デフォルトの名無しさん:2017/01/02(月) 14:14:01.70 ID:ASj0fxen.net
>>292
想定外と言うのはその時点で考慮しなくて良いものの事だ
想定外として許容できるものは用途による

想定外想定外って具体的に何の用途で何の事を言っているのか?

今でも隕石が航空機に衝突したら墜落するだろう
これはあなたの判断では想定外でしたテヘペロで許されるのか?

あなたの判断と世の中の判断とは必ずしも一致しない
あなたが許容しなくても社会が許容する商品は普及する

301 :デフォルトの名無しさん:2017/01/02(月) 14:17:37.48 ID:ASj0fxen.net
>>291
自分が知りたい事から逃げるなって言ってるんだが
更に知りたい事を解明できない自分の無能さを棚にあげるな

302 :デフォルトの名無しさん:2017/01/02(月) 14:30:52.94 ID:ANqkDSqR.net
>>299
なんでそう判断したかわからない間違った結果、なので具体例は俺らには想像もできないが、
条件としては、人間ならあまり起こさないタイプの間違いだと思う
それが発生したとして
想定外問題への対処は人間だって得意なことではないかもしれないが
AIの想定外への対処は人間にはあらかじめ想像すらできないし、発生しても原因は理解できないだろう
AIはAIの思考回路で完結しなければ、AI自身も人間も責任が取れない
やはり実用化より解明の方が優先かもしれないな

303 :デフォルトの名無しさん:2017/01/02(月) 14:44:21.75 ID:ASj0fxen.net
>>302
AIで完結させる必要はない
人間の操作や既存技術も併用すれば良い
その結果人間だけで運転する場合より安全性が高まるのであれば価値はあるだろう

304 :デフォルトの名無しさん:2017/01/02(月) 14:46:05.98 ID:ASj0fxen.net
>>302
解明って何をどこまでの事を考えている?

305 :デフォルトの名無しさん:2017/01/02(月) 14:50:54.02 ID:ASj0fxen.net
宇宙の事を全て解明できていないから宇宙が存在してはいけないとか言う考え方?

現象がある
これを上手く使えば社会が豊かになる可能性がある
使おうとするのは自然だと思うけどな
もちろん悪影響もあるだろうからテストしたりするだろう

先端領域のよくからないものを面白いと思うか怖いと思うか人によるのでは?

306 :デフォルトの名無しさん:2017/01/02(月) 15:47:44.73 ID:jfcTsyjd.net
有用なところ、許容リスク内に入った分野から順次使っていけばいいだけなのに
なんかズレた拘り方してる人がいるねぇ…

日本が技術的革新を起こしにくい理由がよくわかる

307 :デフォルトの名無しさん:2017/01/02(月) 16:24:29.20 ID:ChXAqrhQ.net
こういうときこそノイズを含め自分で学習する人工脳soinnです

308 :デフォルトの名無しさん:2017/01/02(月) 16:30:50.41 ID:POKxJ6yY.net
企業の研究開発部門にいるけど、
これまでの統計ツールに加えて、
機械学習の利用も考えている感じだわ。
データだけはいっぱいあるんで。

309 :デフォルトの名無しさん:2017/01/02(月) 17:47:23.49 ID:uA5/IyXn.net
熱心に議論してる人達いるけどこいつらSVMはおろか単純なNNすら実装したことなさそう

310 :デフォルトの名無しさん:2017/01/02(月) 18:51:06.70 ID:m+NG8uZ9.net
このスレ、プログラム板じゃないのかよw

311 :デフォルトの名無しさん:2017/01/02(月) 18:56:11.46 ID:m+NG8uZ9.net
>>308
昨年独立したんだけど、そういう出遅れたとこから仕事がいっぱい来てボロ儲け

312 :デフォルトの名無しさん:2017/01/02(月) 19:15:04.45 ID:JIP1y7CT.net
>>309 >>310
ブームの弊害だな、一年前はここまで素人くさいスレじゃなかった

313 :デフォルトの名無しさん:2017/01/02(月) 20:31:03.95 ID:bxJ9Dvs5.net
こういうスレもあっていいと思うけど数学板あたりにもあっていいと思う

314 :デフォルトの名無しさん:2017/01/02(月) 22:35:33.24 ID:YRqNyHlt.net
機会学習バブルは2016年末にはじけました。
偽物が急速に淘汰されるフェイズにはいっています。

315 :デフォルトの名無しさん:2017/01/03(火) 00:11:20.68 ID:e9TwvxAl.net
バブルが弾けたとは思わんが、淘汰はされるな
ブログラマもMNISTで脱落する人が意外に多いし

316 :デフォルトの名無しさん:2017/01/03(火) 00:48:08.40 ID:ooOK3l+x.net
MNISTで脱落ってどういうことだよ

317 :デフォルトの名無しさん:2017/01/03(火) 01:10:40.63 ID:73atcCRZ.net
このスレでも python 推奨の流れに抵抗してたのいたじゃん
python 一つできないなら MNIST だって無理じゃね、プログラミング視点なら

318 :デフォルトの名無しさん:2017/01/03(火) 02:11:31.57 ID:Kcok0t+N.net
ざっこ
Python初心者でも
MNISTぐらいできるぞ

どんだけレベル低いのか(笑)

319 :デフォルトの名無しさん:2017/01/03(火) 02:52:02.08 ID:e9TwvxAl.net
そんなに易しいかな
numpy を使いこなすのだって畳み込み層を構築するのだって python 初心者にはハードルあると思うが

320 :デフォルトの名無しさん:2017/01/03(火) 03:02:03.61 ID:e9TwvxAl.net
まぁ keras のサンプルを何も考えずに打ち込むだけなら、誰でもできるかもしれんが

321 :デフォルトの名無しさん:2017/01/03(火) 05:59:21.84 ID:MsG1CCsR.net
aiの認証制度は研究の足枷になるだろうな

322 :デフォルトの名無しさん:2017/01/03(火) 06:14:07.44 ID:yf84fvWK.net
プログラム板なんだから社会インフラの話しは他でやれ

323 :デフォルトの名無しさん:2017/01/03(火) 06:48:19.55 ID:BWDUq4aY.net
>>319

最初はコピペだからエラーが無ければ簡単だろ

324 :デフォルトの名無しさん:2017/01/03(火) 06:49:50.02 ID:farXT/RS.net
データマイニング屋に2chは高卒率が高いサイトだと判定されてるぐらいだからな
http://www.alexa.com/siteinfo/2ch.net
こうなるのも当然だよ

325 :デフォルトの名無しさん:2017/01/03(火) 10:18:46.25 ID:MsG1CCsR.net
AIの認定制度はAI研究を停滞させるから止めろ

326 :デフォルトの名無しさん:2017/01/03(火) 10:32:12.97 ID:NiJgz8R3.net
>>324
わろす

327 :デフォルトの名無しさん:2017/01/03(火) 14:06:45.97 ID:AV7YJV5h.net
>>320 kerasよりtensorflowやchainerの方が簡単だろう。

328 :デフォルトの名無しさん:2017/01/03(火) 14:08:36.81 ID:EEyJHWDM.net
煽りじゃなくてマジで時代はkeras。

329 :デフォルトの名無しさん:2017/01/03(火) 14:13:14.87 ID:bKYKotyv.net
>>327
kerasってtensorflowの抽象化レイヤなんだが…

330 :デフォルトの名無しさん:2017/01/03(火) 18:36:23.02 ID:t8FHlcVh.net
>>327
kerasとtf使ったことないんだね

331 :デフォルトの名無しさん:2017/01/03(火) 19:07:52.57 ID:qTnxbQug.net
>>330
kerasを使うとtensorflowを直接使うのと比べて
メリットとデメリットは何?
大したメリットが無いのにあるいは大きなデメリットがあるのに使う気にはならないと思う

332 :デフォルトの名無しさん:2017/01/03(火) 19:10:46.18 ID:yTaQo5IR.net
>>331
メリット 簡単
デメリット 特になし

333 :デフォルトの名無しさん:2017/01/03(火) 19:17:11.50 ID:t8FHlcVh.net
tfは七面倒な分並列化の細かなチューニング等出来るのがkerasだと隠蔽されてるね
デメリットはそれくらいじゃないかな

334 :デフォルトの名無しさん:2017/01/03(火) 19:26:23.78 ID:qTnxbQug.net
>>333
kerasはtfの機能をフルに使えてるのかな
tfで出来ることがkerasを使う事で使えないとかあるんじゃね?

335 :デフォルトの名無しさん:2017/01/03(火) 19:28:30.82 ID:qTnxbQug.net
あとtfを直接使うのと比べて遅くなる気がする

336 :デフォルトの名無しさん:2017/01/03(火) 19:49:55.39 ID:bDTo0EKH.net
そらラッパーだからな

337 :デフォルトの名無しさん:2017/01/03(火) 21:13:41.32 ID:C8pIovI7.net
実装に時間がかからないのは大きなメリットだな。

338 :デフォルトの名無しさん:2017/01/03(火) 21:27:57.04 ID:/IeuKpsb.net
バグが少ないのもメリット

339 :デフォルトの名無しさん:2017/01/03(火) 23:13:51.23 ID:mZ+dIS13.net
kerasにケチつけてるのchainerつくってるやつじゃないの

340 :デフォルトの名無しさん:2017/01/03(火) 23:16:33.71 ID:pInQTjhJ.net
chainer使う奴はもうおらんやろ。
海外のライブラリには勝てんよ。

341 :デフォルトの名無しさん:2017/01/04(水) 05:53:48.21 ID:pHlhviiX.net
kerasのドキュメントをちょっと見てみてるんだけどさあ
この目的関数を指定するところってこれ、Kerasがモデルから自動で用意してくれるの?
https://keras.io/ja/objectives/#_2
モデルもレイヤーをレゴブロックをくっつけるように足していくだけ、目的関数の算出も自動・・・・となると、ちょこっとモデルを変えてみたいときとか楽なんかな

342 :デフォルトの名無しさん:2017/01/04(水) 07:24:23.96 ID:jNTMq3ae.net
>>341
予め関数にしてるだけのようだけど
その用意されたものから選択する感じだと思うけどな

343 :デフォルトの名無しさん:2017/01/04(水) 07:45:08.67 ID:vQ0spiNE.net
>>339 >>340
同意。別に chainer が悪いわけじゃないが、グローバル・スタンダードが出て来たらそちらを使うのが当然

344 :デフォルトの名無しさん:2017/01/04(水) 09:40:38.71 ID:P9CxkEKM.net
ガラパゴス化というさんざんこの国が繰り返してきた失敗を防ぐためにも、
chainerはいいかげん身を引いてほしい

345 :デフォルトの名無しさん:2017/01/04(水) 09:52:46.67 ID:vQ0spiNE.net
少なくともchainer はtensorflowと張り合うのはやめて欲しい、既に勝敗は決した
生き残るためには独自色を強めるとかかなぁ

346 :デフォルトの名無しさん:2017/01/04(水) 11:45:14.59 ID:yr35s+1S.net
chainerの中の人がtensorflowに張り合っていて
それでいいものが作れたなら別にいいじゃん

chaninerのcpu実装は遅いけどgpu実装はまあまあだし
tensorflowのcpu実装は速いけどgpu実装はまあまあだし

347 :デフォルトの名無しさん:2017/01/04(水) 12:00:40.43 ID:QnDfA0Np.net
使うやつがどんどん減ってるけど、
それで構わないならいいんじゃないの

348 :デフォルトの名無しさん:2017/01/04(水) 12:01:51.99 ID:QnDfA0Np.net
客がどんどん TF に乗り換えたがってて笑えるけどなw

349 :名無し集中:2017/01/04(水) 12:23:19.05 ID:akUjhvPR.net
日経サイエンスの人工知能特集でよんだが
chnrのなかのひとら毎週海外の論文よんだ発表会してる(ドヤ
なんだってさ輸入翻訳業はかわらんなぁ 論文から実装する力ばっかりつくんじゃないの

350 :デフォルトの名無しさん:2017/01/04(水) 12:31:38.52 ID:prJXD1Ld.net
>>349
耳が痛いなぁ… 日本の研究者がやってるのは基本的にはそれだけだよ
コツをつかめば難しくないし効率がいいんだよな。
リファレンス実装は大抵あるし、結果が出ることも分かってるし

351 :デフォルトの名無しさん:2017/01/04(水) 12:33:04.86 ID:lvXDnlaO.net
PFNとしたら最新の論文を実装できて実業に応用できれば十分だと思うのだが。

352 :デフォルトの名無しさん:2017/01/04(水) 12:37:11.55 ID:lvXDnlaO.net
というか、このスレはディープラーニングそのものの研究をしたい奴と応用の話をしたい奴が入り交じってるけど、そのものの話をしたいなら数学板あたりにスレ立てしたほうがいいんじゃない?

353 :デフォルトの名無しさん:2017/01/04(水) 12:39:20.44 ID:prJXD1Ld.net
>>351
そう、だから chainer は基本的には社内ツールであって
グローバルスタンダードを目指す必要は本来はないはず。色気出してたけどなw
第三者は tensorflow なり keras なり使っときゃ十分。

354 :デフォルトの名無しさん:2017/01/04(水) 12:41:55.06 ID:prJXD1Ld.net
>>352
そのものを研究してるやつなんかいるのか?w
日本語処理とコグニトロン以外では日本人の名前は殆ど見かけないぞw

355 :デフォルトの名無しさん:2017/01/04(水) 13:07:28.18 ID:2zMqbxLR.net
>>347 だから、日本製はOSのTRONみたいなことばかりする。検索エンジンもしかり。
AIエンジンも海外に抜かれる。

356 :デフォルトの名無しさん:2017/01/04(水) 13:23:43.46 ID:qYKheqU2.net
>>355
お前がやれば

357 :デフォルトの名無しさん:2017/01/04(水) 13:51:06.61 ID:dRBkk7gx.net
日本が海外がとか別にどうでもよくないか

358 :デフォルトの名無しさん:2017/01/04(水) 14:27:49.37 ID:WgerS0Nf.net
ここの人たちはテンスルとかケラスが中でどのようなことやってるのか興味ないのか

359 :デフォルトの名無しさん:2017/01/04(水) 14:32:20.85 ID:vQ0spiNE.net
>>357
もちろん趣味でやるなら気にする必要なし

360 :デフォルトの名無しさん:2017/01/04(水) 15:09:05.97 ID:xz7GWhg6.net
>>358
行列計算してるだけやで
ただ、どうしても一部は単純な行列計算に落とし込むのが難しい部分もあるから、
そういう部分をいかにパフォーマンスや記述性を犠牲にせずにゲロ遅いスクリプト(Python)に落とし込むかか技術的なポイント
応用する分にはどうでもいい領域

361 :デフォルトの名無しさん:2017/01/04(水) 15:36:26.26 ID:TEQVZFn/.net
>>360
コンパイル言語で書けば良いんじゃ無いの?
Pythonのコンパイラとか作れば良いのか

362 :デフォルトの名無しさん:2017/01/04(水) 15:42:35.67 ID:AQQ3MUYI.net
>>361
Cython 知らんのか?w

363 :デフォルトの名無しさん:2017/01/04(水) 15:43:49.48 ID:xz7GWhg6.net
>>361
それも一つの方法だけど、直接コンパイル言語でフローを書いたらGPUで動かしたり他のノード上で動かしたりするのは難しいでしょ
ホスト言語とは分離したDSLを設けることで実装に自由度を持たせるの

364 :デフォルトの名無しさん:2017/01/04(水) 16:29:02.53 ID:yr35s+1S.net
tensorflowの良書を教えてくさい

365 :デフォルトの名無しさん:2017/01/04(水) 16:31:18.58 ID:AQQ3MUYI.net
>>364
チュートリアルを順番に丁寧にやるのが一番良いと思う

366 :デフォルトの名無しさん:2017/01/04(水) 16:44:06.42 ID:2zMqbxLR.net
>>360

367 :デフォルトの名無しさん:2017/01/04(水) 17:01:23.91 ID:XRUKigB5.net
実際、Pythonなんか使いたくない、ってC++で書かれたフレームワークあるよ。
DyNetとかmntkitとか(いずれも自然言語処理用だけど)

368 :デフォルトの名無しさん:2017/01/05(木) 00:03:55.64 ID:qxu/ABC+.net
今日客にchaninerで実装するっていったら
3時間ぐらい説教されたよw
そんな糞フレームワーク採用できるか馬鹿野郎ってすげーねちねち言われるし
なんでTensorflowで提案持ってこれないんだ技術力低いのかとか
意味不明な煽りも受けたし

なんだこれ?俺悪いことした?

369 :デフォルトの名無しさん:2017/01/05(木) 01:39:07.99 ID:oDz8Ncus.net
盛ってるにしても本当のことなら、
もちろん悪いことしてるだろ JK
何で一般的な知名度が皆無のフレームワークで提案するんだよw 客からしたら舐められたと思ったんだろ

370 :デフォルトの名無しさん:2017/01/05(木) 05:28:14.61 ID:McsfTwG4.net
書いてることが高卒フリーターだらけの国らしいわな

371 :デフォルトの名無しさん:2017/01/05(木) 05:28:24.87 ID:OnPczPIF.net
>>368
悪いに決まっている。AI に興味あるユーザ企業の TF/Google への信奉度は凄いよ。
大してつきあいのない客が TF で何か作れとか言ってくる。こんなこと今までなかった。
まぁ喋れるやつ作れ、とか無茶ぶりで頭痛いけどなw

372 :デフォルトの名無しさん:2017/01/05(木) 05:29:46.53 ID:OnPczPIF.net
>>370
高卒フリーターでも TF できれば、おこぼれに預かるチャンスだぞ。わりとマジで。

373 :デフォルトの名無しさん:2017/01/05(木) 07:16:01.28 ID:hDlq+tiw.net
TFできるだけじゃ誰も金払ってくれんだろ
重要なのはTF使ってどんなアウトプットができるか?そして問題を解決できるか?だろ
使うだけなら学生だって出来る

374 :デフォルトの名無しさん:2017/01/05(木) 08:54:09.63 ID:gfDYS9Zc.net
使うだけで金にはなると思うけどなー
クライアントのレベルだって様々だよ

375 :デフォルトの名無しさん:2017/01/05(木) 09:06:06.73 ID:b5/JqiCA.net
はいはい釣れた

376 :デフォルトの名無しさん:2017/01/05(木) 09:08:52.61 ID:vrx9Jkid.net
いよいよTF一強だな

377 :デフォルトの名無しさん:2017/01/05(木) 10:45:11.94 ID:W/+CAQrH.net
低落は始まっている

378 :デフォルトの名無しさん:2017/01/05(木) 10:59:58.55 ID:fJTYsmAT.net
>>374
同意。本当にレベルは様々

379 :デフォルトの名無しさん:2017/01/05(木) 11:03:07.88 ID:fJTYsmAT.net
>>376
対抗馬としてMicrosoft関連だと思ってたんだけど、CNTKがびっくりするくらい流行らなかったからな

380 :デフォルトの名無しさん:2017/01/05(木) 12:03:32.77 ID:WaSo5sCZ.net
数学もろくにできないのにはやってるというだけで機械学習はじめましたってやつが多すぎる

381 :デフォルトの名無しさん:2017/01/05(木) 12:20:17.50 ID:2irOG/pU.net
数学も英語も出来ない、プログラムも出来ないけど人工知能なら書けなくてもなんでもやってくれそうだ・・・・
人工知能の報道を見たそんな人でごった返してんだよ

382 :デフォルトの名無しさん:2017/01/05(木) 12:25:22.53 ID:CaXQlQxZ.net
スマホ使ってるけどその動作原理を知らない
そんな感じでもいいんじゃね?

383 :デフォルトの名無しさん:2017/01/05(木) 12:25:55.94 ID:FiXM9MzR.net
アドルフォイが囲碁板で自分が学習させたRocAlphaGo
が弱いと暴れています。
早くこっちに誘導してください

384 :デフォルトの名無しさん:2017/01/05(木) 13:06:39.16 ID:c6xYhHVb.net
アホ同士仲良くやってください

385 :デフォルトの名無しさん:2017/01/05(木) 22:06:00.19 ID:8R8+J/ZX.net
>>382
スマフォ(アプリ)の動作がおかしいんですけど、悪いとこ直してって言われて、どこが悪いかわからなかったらどうする?

386 :デフォルトの名無しさん:2017/01/05(木) 22:17:34.36 ID:WPj32BYO.net
プラットフォームとフレームワークの区別もできないのか

387 :デフォルトの名無しさん:2017/01/05(木) 22:40:52.55 ID:85qw7yG3.net
機械学習でAIが短編を書くことは可能ですか?
ある人の膨大な作品を機械学習させること自体は可能だろう。

ただそれで単語や意味のカテゴリー分けができるくらいで
そこからどうやって機械に創作させればいいんだ?

388 :デフォルトの名無しさん:2017/01/05(木) 22:45:57.37 ID:UiiKd7HR.net
ポエムならポエム板へ

389 :デフォルトの名無しさん:2017/01/05(木) 22:57:48.76 ID:fezKGL1W.net
そんなあなたにうってつけの本がここに
https://www.amazon.co.jp/dp/4532176093

390 :デフォルトの名無しさん:2017/01/05(木) 23:00:52.52 ID:UiiKd7HR.net
また騙されて真板へ飛ばされたわけだが

391 :デフォルトの名無しさん:2017/01/05(木) 23:31:27.67 ID:PN6lkzK2.net
>>374
例えば?

392 :デフォルトの名無しさん:2017/01/05(木) 23:41:29.94 ID:LEh5ltRV.net
ニコ動って機械学習サービス出てこないね
アルゴリズムより応用が思いつかない感じ

393 :デフォルトの名無しさん:2017/01/06(金) 01:11:52.68 ID:vZTGYmP6.net
結局機械学習やら人工知能なんてものは大勢に普及したら空気となりそれを利活用して価値を創出するのが重要になる
何を生み出すか、何を創造するかでね

だから必死こいていま基礎から理論から機械学習勉強しても無駄、徒労に終わるだけだからGoogleとか天才たちにインフラ整備は任せとけばいい

それよりも今目の前のコト、もしくは仕事に全力を注ぐことだ
AIが当たり前になれば昔のようにまた純粋芸術を頂点とした世界に戻るのだから

394 :デフォルトの名無しさん:2017/01/06(金) 01:21:25.80 ID:OZLvaG/K.net
↑ただのいいわけでしょ

395 :デフォルトの名無しさん:2017/01/06(金) 01:21:59.53 ID:36rGB0Vb.net
>>393
俺は馬鹿だから機械学習なんて分からない、
まで読んだ。

396 :デフォルトの名無しさん:2017/01/06(金) 02:51:54.22 ID:oFhfJz9R.net
最近ニューラルネットワークを勉強し始めたんだけど学習量と隠れ層は多すぎても少なすぎてもだめってことはわかった
そこで疑問なんだけど教師データは多すぎるデメリットってあるの?
sinを求めるとか簡単なことしかやってないからデメリットに直面してないだけなのかそこまでないのか教えていただけるとありがたい

397 :デフォルトの名無しさん:2017/01/06(金) 03:48:40.24 ID:vZTGYmP6.net
機械学習では自らの運命を創れない。人工知能の運命は人が与えるものだからね。
これが人と人工知能の決定的な差だ。そして人は自らの運命を彩る芸術家でもある。

398 :デフォルトの名無しさん:2017/01/06(金) 05:13:50.37 ID:QeT3tOgY.net
>>393
やりたい事があるとする
既存のフレームワークで実現を試みるが上手くできないとする
どう言う選択肢がある?

399 :デフォルトの名無しさん:2017/01/06(金) 05:17:03.78 ID:QeT3tOgY.net
>>397
運命って何?
次に何をするかを決めるって事なら何とかなるんじゃね?
て言うか機械学習で運命を決める必要があるの?
人間の機能を全部機械学習で実現できたらそれこそ人間の仕事は機械に置き換わる

400 :デフォルトの名無しさん:2017/01/06(金) 06:12:48.18 ID:lthbEsBW.net
文系の人は無理に書き込まなくていいよw

401 :デフォルトの名無しさん:2017/01/06(金) 06:18:58.82 ID:vZTGYmP6.net
そして芸術家とは破壊と創造の主である。
破壊の神でもあり創造の神でもあるのだ。

402 :デフォルトの名無しさん:2017/01/06(金) 06:33:03.78 ID:V8wWSmc2.net
>>397
人は死ぬが人工知能は死なない。これが決定的な差だよ
誰も敢えて指摘しないが、実はこれが AlphaGO の真の怖さだと思っている
どんな名人でもやがて死ぬが、AlphaGo は永遠に強くなり続けて碁の神となるのだよ

403 :デフォルトの名無しさん:2017/01/06(金) 06:59:59.16 ID:R6JG5WSA.net
実質的に同じ意味を持つニューロンが複数できちゃうのって、なんか防ぐ技術あるの?

404 :デフォルトの名無しさん:2017/01/06(金) 07:02:38.27 ID:V8wWSmc2.net
>>403
つ dropout

405 :デフォルトの名無しさん:2017/01/06(金) 07:45:51.42 ID:8EHemPmg.net
dropoutしないときに同じ意味を持ってしまったニューロン(例えば2つ)は
dropoutしたときにどんなふうなニューロンになるの?

1つの状態を2つに分割したような2つのニューロン?
それとも1つはdropoutしないときと同じものでもう1つのはノイズニューロン?

406 :デフォルトの名無しさん:2017/01/06(金) 07:49:26.42 ID:lthbEsBW.net
>>405
Dropoutの意味が分かってない

407 :デフォルトの名無しさん:2017/01/06(金) 07:51:42.69 ID:PNUaneZu.net
というか、正則化が分かってない感じ

408 :デフォルトの名無しさん:2017/01/06(金) 08:50:51.19 ID:8EHemPmg.net
教えてエロい人

409 :デフォルトの名無しさん:2017/01/06(金) 09:23:44.94 ID:36rGB0Vb.net
ていうか何も分かってない感じ

410 :デフォルトの名無しさん:2017/01/06(金) 12:20:34.18 ID:5HA7V59p.net
>>408
だが断る

411 :デフォルトの名無しさん:2017/01/06(金) 14:09:57.88 ID:GJm6M3QX.net
>>402 カーツワイルは不老不死。フランクティプラーは人間の素性。

412 :デフォルトの名無しさん:2017/01/06(金) 15:54:01.40 ID:d/68wcma.net
>>396
デメリットは過学習があるけどあらゆる手法でその影響は軽減できるので教師データは多いに越したことはない

413 :デフォルトの名無しさん:2017/01/06(金) 15:54:53.43 ID:d/68wcma.net
>>405
質問の意味が分からない

414 :デフォルトの名無しさん:2017/01/06(金) 15:59:28.51 ID:A0+jLhsU.net
テンフロ一極化ってマジヤバじゃん
結局、あれってGAE上で使ったら最もパフォいいですよ=クラウド買ってね大作戦でしょ?
そんなんでいいのか?
トロンの悲劇を繰り返すのか?
俺たちはチャイナーがんばんべ?

415 :デフォルトの名無しさん:2017/01/06(金) 16:09:36.87 ID:vdU4DTqF.net
ぱっぱらぱー降臨

416 :デフォルトの名無しさん:2017/01/06(金) 16:42:30.00 ID:A0+jLhsU.net
どうやらググ―ルの陰謀に気ずいてたのは俺だけらしいね
情報最先端と言える2chでこのレベルだし、これはしかるべき機関に伝達しないといけないな・・・

417 :デフォルトの名無しさん:2017/01/06(金) 17:14:13.35 ID:x2KdJ7gV.net
>>402
そうそうなんだ、人工知能は刹那に生きることが出来ないんだ。
この刹那の瞬間に数々の奇跡がうまれ感動を呼び大地に刻まれ文化となり歴史(人生)となる。
人工知能ではこの歴史が創れないのだ。

418 :デフォルトの名無しさん:2017/01/06(金) 17:30:31.58 ID:7rPnqejC.net
人工知能は便利な道具だと思うね。


コンピュータの進歩により、


ディープラーニングが可能になった。

これは単なるブームではない。
第四産業の登場だよ。

419 :デフォルトの名無しさん:2017/01/06(金) 17:55:58.57 ID:1gzj3ldL.net
精神科のある病院が良いかもしれません

420 :デフォルトの名無しさん:2017/01/06(金) 21:41:22.46 ID:A0+jLhsU.net
公式にはAlpahaGoのmasterくんは、非公式のテストとか言ってるが
あれ実はAlpahaGoが逃げ出して勝手に始めたことなんだよ
当局はそんなこと世間にしれたら大問題になるから非公式のテストとか言ってるが
すでにAIは意思を持ち始めているからね
俺や一部の人間は気ずいてると思うよ

421 :デフォルトの名無しさん:2017/01/06(金) 22:15:38.56 ID:OZLvaG/K.net
>>420
動作原理知らない文系ですよね?

422 :デフォルトの名無しさん:2017/01/06(金) 22:37:11.91 ID:7rPnqejC.net
>>420
ターミネーター映画の見過ぎ

423 :デフォルトの名無しさん:2017/01/06(金) 22:55:26.81 ID:vZTGYmP6.net
所詮はAIで生成されたもの
いくら技巧的でも、そこには人生がない。

人間の認識や感情の根本は差別だ。
アレとコレは違うという認識が基本なんだ。

だから、人工知能がいかに人間のように振る舞っても、人工知能と人間の知能は違うという事実を認識する。
つまり差別するんだ。

奴隷全盛期の時代において、奴隷にして高い芸術的評価を受けている人間はいるか?
芸術というのは作者がどのような人生を送ってどのようなことを考えているかということが重要であり、
その上で、作品が他人に好まれなければならないんだよ。

そりゃ、過去のデータから大衆が好みそうな音楽を自動生成する人工知能なんかはそのうち作れるだろうさ。
ロボットが頭をポリポリ書きながら楽譜を書いて作曲したりもできるかもしれないさ。
でも、それって「人工知能」だろ?そこには人生がない。
人間とはちがう、ただそれだけの理由で好まれないんだよ。

作者がどんな経験をしてどんなことを思って描いたのかということが大切なんだ。

424 :デフォルトの名無しさん:2017/01/06(金) 23:04:18.06 ID:IFINHmj3.net
それはどうかな

425 :デフォルトの名無しさん:2017/01/06(金) 23:12:18.89 ID:B+W1qT2d.net
ポエム板でやってね

426 :デフォルトの名無しさん:2017/01/06(金) 23:29:04.56 ID:86GktmGC.net
納品するPCがwindowsなんだけど、Tensorflowってwindowsで動く?
学習だけはlinuxでやってもいいんだけど

427 :デフォルトの名無しさん:2017/01/06(金) 23:38:44.49 ID:kp2I/0bG.net
pipで普通に入るよ

428 :デフォルトの名無しさん:2017/01/06(金) 23:56:21.57 ID:B+W1qT2d.net
ピップエレキバン

429 :デフォルトの名無しさん:2017/01/07(土) 00:01:55.26 ID:jmMYi0mm.net
>>427
インストールはできても動作しないって噂聞いたんだが

430 :デフォルトの名無しさん:2017/01/07(土) 00:17:26.09 ID:ZttqXK5E.net
https://www.tensorflow.org/get_started/os_setup
公式は出来るよって言ってる

431 :デフォルトの名無しさん:2017/01/07(土) 01:21:42.22 ID:jmMYi0mm.net
おおほんとだ
できるようになってたのか

432 :デフォルトの名無しさん:2017/01/07(土) 01:48:08.10 ID:4qxOrhve.net
>>423
こういうこと考えるやつってほんと嫌いだな。

433 :デフォルトの名無しさん:2017/01/07(土) 01:57:31.88 ID:IrIkzzkt.net
ニューラルネットワークとかで人間の脳に構造を近づけていくと
人間くさいやらかしもやるようになるの?
インディペンデンスデイの風邪ひかせるのが現実になるのか

434 :デフォルトの名無しさん:2017/01/07(土) 02:05:12.55 ID:zaHXX5n5.net
超一流の数学者と超一流の計算機科学者ってどっちの方が頭いいの?

435 :デフォルトの名無しさん:2017/01/07(土) 03:57:11.87 ID:Px6qU8B7.net
>>412
ありがとう

436 :デフォルトの名無しさん:2017/01/07(土) 04:47:53.11 ID:8zdH9Sfg.net
>>435
真に受けるな、過学習は起きにくいに決まってるじゃないか

437 :デフォルトの名無しさん:2017/01/07(土) 04:51:29.16 ID:8zdH9Sfg.net
>>429
ねえよw ステーブル版じゃないか、chainer信者からのデマだろ
但し、hdfsが使えないとか、少し制約はある

438 :デフォルトの名無しさん:2017/01/07(土) 04:52:48.52 ID:8zdH9Sfg.net
>>434
頭の良さの定義は?

439 :デフォルトの名無しさん:2017/01/07(土) 05:07:40.14 ID:o7MUl6cB.net
>>433
やらかしを学習させるだけだが

440 :デフォルトの名無しさん:2017/01/07(土) 07:51:36.75 ID:yUFhWZTN.net
>>433
人間くささってなんだ?

441 :デフォルトの名無しさん:2017/01/07(土) 08:49:01.35 ID:N3UN3uty.net
加齢臭?

442 :デフォルトの名無しさん:2017/01/07(土) 09:16:10.75 ID:rc8yVPel.net
>>434
おまえさんが
ナンバーワン

443 :デフォルトの名無しさん:2017/01/07(土) 11:33:30.05 ID:gdmcm9JP.net
AIかそうじゃないか(ただの手続きプログラム?)の違いっていうのは
AIの方がAI作成者より賢くなるって理解で良いですか?

444 :デフォルトの名無しさん:2017/01/07(土) 11:50:34.99 ID:TOrGuStJ.net
>>443
良くない

445 :デフォルトの名無しさん:2017/01/07(土) 12:15:02.42 ID:ZttqXK5E.net
>>443
どうやったらそんな理解になったか聞きたいw

446 :デフォルトの名無しさん:2017/01/07(土) 13:05:52.36 ID:94Ec8VCq.net
ノイマンアーキテクチャである限り手続き型を枠を出ないしシンギュラリティもありえない

447 :デフォルトの名無しさん:2017/01/07(土) 13:39:40.63 ID:TOrGuStJ.net
>>446
なんで?

448 :デフォルトの名無しさん:2017/01/07(土) 13:40:59.96 ID:TOrGuStJ.net
>>446
プログラムを生成しつつ実行するプログラムを作れば良いんじゃないの

449 :デフォルトの名無しさん:2017/01/07(土) 13:44:50.65 ID:u/YaKAHu.net
>>442
もともと特別なオンリーワン

450 :デフォルトの名無しさん:2017/01/07(土) 17:17:01.45 ID:4jt/Q9EM.net
作成者よりアホなAI造って何になるん?

451 :デフォルトの名無しさん:2017/01/07(土) 17:18:05.70 ID:FotkJfpy.net
ディープラーニグはAIだから利用すべきだけど
その他の手法は機械学習のため学ぶ価値はゼロだって
大学の講演で聞いたんだけどどういうことだろうか?

452 :デフォルトの名無しさん:2017/01/07(土) 17:44:47.98 ID:dpFi03E+.net
>>451
聞き間違えだろう

453 :デフォルトの名無しさん:2017/01/07(土) 17:50:42.12 ID:+vNf+O98.net
>>451
他はビジネスの道具という色が強くて、あまりそれ単体で意味のあるものではないからじゃないか?
学者様は「何に使うのか」というところに踏み込みたがらないから、
人の視覚認識を再現するといったような単体で意味のありそうなテーマを好む傾向がある

454 :デフォルトの名無しさん:2017/01/07(土) 17:56:23.26 ID:xgOXdwf3.net
不可塑性を持つ人工知能も登場するんじゃないか?
というか今はボトムアップ型の開発が主流だろ
生まれた子供の知能が親より高かったらSFだし
生存競争で不利なんだっけか

455 :デフォルトの名無しさん:2017/01/07(土) 18:04:12.86 ID:TOrGuStJ.net
>>451
レコメンド機能とか使われてるんじゃね?

456 :デフォルトの名無しさん:2017/01/07(土) 18:07:17.54 ID:4lT0hUL1.net
学生にとって現実に将来役に立つ可能性で言えば、重回帰やkNNや決定木の方がよっぽど意味ある

457 :デフォルトの名無しさん:2017/01/07(土) 19:49:07.89 ID:u/YaKAHu.net
ジャップランドでの最高位スキルはコミュ力や
おまんこハメハマDeepKissing、これが俺たちのザ・ゴール

458 :デフォルトの名無しさん:2017/01/07(土) 22:00:39.86 ID:g5GyAmCB.net
ディープラーニングも機械学習なんだけど

459 :デフォルトの名無しさん:2017/01/07(土) 23:38:31.07 ID:637eCEcU.net
やたらとディープラーニングを持ち上げる信者が研究者にもいるから見極めが必要

460 :デフォルトの名無しさん:2017/01/07(土) 23:54:37.51 ID:7WcdG19j.net
何事もそうだろう、特に研究者なら

461 :デフォルトの名無しさん:2017/01/08(日) 04:08:59.48 ID:xMVs4RXt.net
>>451
> ディープラーニグはAIだから
ワロタw 知能でも何でもないし。

知能という言葉をあえて使いたいというのなら疑似知能と言うべきだろうな
知能はないけれど、知能があるかのように振る舞うだけ

そもそも人工知能なんて役に立たないからな。
知能を作りたいなら子供を作ればいいだけだ。

人間にとって本当に必要なのは、膨大なデータとそれを処理するコンピュータだ。
コンピュータがやってることは人間には不可能なこと。
つまり人間が持っている知能という能力ではないんだよ。

人間の知能ではできなことがうまくできるようになったからって、
それは知能を持っていることにはならない。だからといってコンピュータが
意味がないということではない。

人間ができないことをやるから、便利な道具になるんだよ。
ディープラーニングも人間の知能ではないから便利

462 :デフォルトの名無しさん:2017/01/08(日) 07:22:06.92 ID:ts3G2y2D.net
>>461
人間にできる事を高速に正確に大量にできることは知能では?
知能って何?

463 :デフォルトの名無しさん:2017/01/08(日) 07:22:11.77 ID:0mVP2hZ6.net
ディープワーニング

464 :デフォルトの名無しさん:2017/01/08(日) 07:33:32.26 ID:2nv7Vmsj.net
ディープルーチング

465 :デフォルトの名無しさん:2017/01/08(日) 07:55:49.88 ID:ZFJRYXHW.net
ダートマス会議に沿ってるだけだからw
文系議論は別板でやってくれ

466 :デフォルトの名無しさん:2017/01/08(日) 08:00:45.34 ID:Nxeyd9Pg.net
理系… TF / Keras ってどうよ
文系… AI は知能じゃない

こうですか? www

467 :デフォルトの名無しさん:2017/01/08(日) 10:03:35.45 ID:jFITdO6M.net
ディープスロート、フェ○ではない

468 :デフォルトの名無しさん:2017/01/08(日) 10:08:00.39 ID:TXqGgIea.net
>>461
知能はないけれど、知能があるかのように振る舞うだけのお前が何言ってだ

469 :デフォルトの名無しさん:2017/01/08(日) 10:19:08.68 ID:eI5uXFmJ.net
>>462
バケツリレーより早く効率的な水車は知能かな?

470 :デフォルトの名無しさん:2017/01/08(日) 10:25:13.45 ID:sMpT8Z5D.net
>そもそも人工知能なんて役に立たないからな。
>知能を作りたいなら子供を作ればいいだけだ。
馬鹿乙、ほしのは賢い知能だ、教育して優秀な人材になる確率はどれだけるのか?

471 :デフォルトの名無しさん:2017/01/08(日) 11:03:04.60 ID:iYjmYj1a.net
Chinoh means intelligence, and no one want unintelligent human

472 :デフォルトの名無しさん:2017/01/08(日) 11:19:45.26 ID:8JnbookD.net
かつての日本人は優秀な奴隷だった

473 :デフォルトの名無しさん:2017/01/08(日) 12:17:30.45 ID:ts3G2y2D.net
>>469
計算や検索や間違い探しは知能ではない?

474 :デフォルトの名無しさん:2017/01/08(日) 12:18:17.60 ID:ts3G2y2D.net
>>469
アクチュエータの例を挙げる所に知能の低さを感じる

475 :デフォルトの名無しさん:2017/01/08(日) 12:44:07.81 ID:0mVP2hZ6.net
今日の会場はこちらですか

476 :デフォルトの名無しさん:2017/01/08(日) 13:19:21.40 ID:TXqGgIea.net
ようこそいらっしゃいました
まずはご本名とご住所をお書きください

477 :デフォルトの名無しさん:2017/01/08(日) 13:40:20.55 ID:RNfgXV6k.net
ここはプログラム板なんだから知能の定義の議論とかいらないです

478 :デフォルトの名無しさん:2017/01/08(日) 13:50:51.75 ID:62UFgOR0.net
>>465 >>477
禿同。

いや本当、プログラム板なんだから言葉の遊びは他でやれや。
というか、フレームワークの話しの流れをわざと反らしてるだろ

479 :デフォルトの名無しさん:2017/01/08(日) 13:54:21.16 ID:bkIE9CGW.net
chainerの役目は終わりましたので、
もう今後は無視して大丈夫です。

480 :デフォルトの名無しさん:2017/01/08(日) 13:58:37.06 ID:T6tx3hoE.net
科学哲学の板とかスレとかあるだろうから、そっちでやればいいだろ
人工知能の定義とか、喜んで相手してくると思うぞ

481 :デフォルトの名無しさん:2017/01/08(日) 14:02:29.64 ID:QoS/MrxE.net
chainerってトヨタの自動運転で
使われてるじゃないの?

482 :デフォルトの名無しさん:2017/01/08(日) 14:03:46.75 ID:iodaQ4Bk.net
>>478
TFTFTF

483 :デフォルトの名無しさん:2017/01/08(日) 14:05:26.18 ID:ZFJRYXHW.net
>>481
日本の技術が使われてるわけないだろw

>>482
池沼?

484 :デフォルトの名無しさん:2017/01/08(日) 14:07:26.16 ID:SQ/kH9s1.net
>>483
つかわれてる
https://www.sentaku.co.jp/articles/view/16380

485 :デフォルトの名無しさん:2017/01/08(日) 14:11:58.27 ID:ZFJRYXHW.net
>>484
現実はシビアだな…

486 :デフォルトの名無しさん:2017/01/08(日) 14:14:45.46 ID:TXqGgIea.net
>>484
JAPさん・・・w

487 :デフォルトの名無しさん:2017/01/08(日) 14:21:59.64 ID:iodaQ4Bk.net
フレーム問題
http://www.ai-gakkai.or.jp/whatsai/AItopics1.html

488 :デフォルトの名無しさん:2017/01/08(日) 14:27:12.21 ID:iodaQ4Bk.net
人工知能って何?
http://www.ai-gakkai.or.jp/whatsai/AIwhats.html

489 :デフォルトの名無しさん:2017/01/08(日) 15:52:14.44 ID:xMVs4RXt.net
>>462
> 人間にできる事を高速に正確に大量にできることは知能では?

工場にある機械のことを、知能と言いたいの?

490 :デフォルトの名無しさん:2017/01/08(日) 15:54:32.90 ID:xMVs4RXt.net
むしろ知能をなくすことで、高速に正確に大量にできるようになるんだよね。

491 :デフォルトの名無しさん:2017/01/08(日) 15:56:04.28 ID:ts3G2y2D.net
>>489
ロボットには知能が組み込まれているものもあるだろ

工場にある機械と言う文字列をどう解釈するかによって答えは変わる

492 :デフォルトの名無しさん:2017/01/08(日) 15:56:43.69 ID:ts3G2y2D.net
>>490
高速と言うのは何と比較するかによって変わる

493 :デフォルトの名無しさん:2017/01/08(日) 16:04:19.93 ID:kLVtW1P5.net
画像識別とか問題を制限しないとまともな研究にならないのだ

494 :デフォルトの名無しさん:2017/01/08(日) 16:10:32.73 ID:xMVs4RXt.net
>>491
> ロボットには知能が組み込まれているものもあるだろ

ないよ。っていうか、どれが知能だと思ってるの?

495 :デフォルトの名無しさん:2017/01/08(日) 16:12:46.76 ID:xMVs4RXt.net
>>493
画像識別もなぁ、単に大量にある画像の中から
近い画像を見つけるってだけだしな。

極めて大量の画像があってそれを高速に検索しているだけ。
だから的中率が上がる。

人間はそんなことしてないんだよね。
すごく少ない画像とすごく遅い処理。という前提で
識別するのが知能。

496 :デフォルトの名無しさん:2017/01/08(日) 16:15:36.06 ID:xMVs4RXt.net
人工知能という点では、ディープラーニングとか
真逆のアプローチでしかない。

大量のデータがあるという前提でこれを力技で
高速処理することで人間にとって役に立つ処理を行っている。

コンピュータというのは人間に役に立つ処理を行うのが
目的だから、これ自体に問題はないんだけど
知能というのは少量のデータから結果を出すものなので
今のやり方は大きくずれている。

497 :デフォルトの名無しさん:2017/01/08(日) 16:19:15.88 ID:ts3G2y2D.net
>>495
近いってのが人間には簡単でもコンピュータで実現するのが難しかったわけだ

でお前は簡単に今実現されてる方法より優れたものを作れるんだよな?

498 :デフォルトの名無しさん:2017/01/08(日) 16:20:42.75 ID:ts3G2y2D.net
>>496
なんで少量のデータに限ってるのか判らないな
人間の記憶している情報は一切使わずにお前が言う知能を実現してるのか?

499 :デフォルトの名無しさん:2017/01/08(日) 16:23:22.35 ID:ts3G2y2D.net
知能の定義によるからなんとでも言えるだろう
お前の知能の定義なんか知らないし一般に通用しているものでもないだろ

500 :デフォルトの名無しさん:2017/01/08(日) 17:12:10.43 ID:xMVs4RXt.net
>>498
> なんで少量のデータに限ってるのか判らないな
> 人間の記憶している情報は一切使わずにお前が言う知能を実現してるのか?

人間が記憶できる程度の "少量" のデータで
人間は物事を考えてるからに決まってるだろ。

そもそも人間は見ていないデータは "記憶" していない。
どうせお前は潜在意識に記憶された〜とか言おうと思ってるんだろうが、
見たことないデータは当然記憶していない。

その時点でコンピュータが処理しているデータよりも
人間が処理しているデータが大きく少ないことは確定した事実

501 :デフォルトの名無しさん:2017/01/08(日) 17:17:39.80 ID:8OGZNgRf.net
世間ではで〜ぷら〜にんぐ使ってれば人工チノ〜使ってる扱いなんだし、どうでもいい議論だな

502 :デフォルトの名無しさん:2017/01/08(日) 17:18:23.36 ID:Paqy+wxP.net
知能てwww
学校の数学の授業で関数って習ったろ?
y=f(x)って。

AIってこの関数f(x)を多量のデータから作成してるだけやねん。
xに声とか画像を入れると、答えのyがゲットできる。
耳か目から入ったものが、識別されて頭の中に入るイメージ。

503 :デフォルトの名無しさん:2017/01/08(日) 17:33:01.48 ID:ts3G2y2D.net
>>500
人間の脳の記憶容量って1ペタバイトと言う説もあるがどの程度が少量なのかはお前のさじ加減次第だろ
あと紙とかも使えるわけだが

504 :デフォルトの名無しさん:2017/01/08(日) 17:34:26.45 ID:ts3G2y2D.net
>>500
前提として少量の情報に限定する必要はないんだが?
なぜ使えるものを使わないのか

505 :デフォルトの名無しさん:2017/01/08(日) 18:09:41.41 ID:ts3G2y2D.net
あと人間は主に五感を通して常に情報を得ている
脳はそれらの大量の情報を用いて学習している
人工知能で学習に使用される情報量が人間の学習に使用される情報量より少ないとは言い切れない

506 :デフォルトの名無しさん:2017/01/08(日) 18:25:10.84 ID:M9xdEeQA.net
何が知能にあたるのかなんて、
プログラム板ではどうでもいいんだが。

507 :デフォルトの名無しさん:2017/01/08(日) 19:01:29.45 ID:vsMqsvZn.net
>>505
プログラム板なんだが。荒らしてるわけ?

508 :デフォルトの名無しさん:2017/01/08(日) 19:05:09.02 ID:wSocPv3q.net
人間だって単にアウトプット方法が比較的多彩な関数機とみなせますし

しっかし生産性のない議論だこと…

509 :デフォルトの名無しさん:2017/01/08(日) 19:12:27.83 ID:xMVs4RXt.net
>>503
> 人間の脳の記憶容量って1ペタバイトと言う説もあるがどの程度が少量なのかはお前のさじ加減次第だろ

記憶容量と記憶量は全く別物。
どんなに容量が多くたって、知っているものしかデータ量は存在しない。

わかりやすく画像で言えば、人間見たことがある画像しか覚えていない。
その見たことがある画像の量がディープラーニングとは全く違う

510 :デフォルトの名無しさん:2017/01/08(日) 19:13:01.99 ID:ZFJRYXHW.net
定期的に湧くよな
生産性を持たないことに劣等感を持つ連中だろ

511 :デフォルトの名無しさん:2017/01/08(日) 19:19:31.72 ID:ts3G2y2D.net
>>509
大量の情報が必要って何をするのにどのくらいの情報がどのフェーズで必要になる?

判別するときに大量の情報が必要になるか?
回帰にしても同様

512 :デフォルトの名無しさん:2017/01/08(日) 19:26:19.59 ID:xMVs4RXt.net
> 判別するときに大量の情報が必要になるか?

学習するときに大量の情報が必要になるんだよ。
人間はそんな量の学習はしていない。

ゲームを攻略する人工知能とかいうのでも同じだろ。
何十回、何百回やってようやくそのステージに限ってクリアできる程度になる
だけど人間はそういうやり方ではない。

人工知能というのなら、人間と同じ試行回数で学習できなければいけない。
今のやり方は、人間では到底不可能な大量の処理を正確に行い
完全に記憶することを前提としている。

問題を解くためのアプローチの仕方が全く違う。

513 :デフォルトの名無しさん:2017/01/08(日) 19:28:42.04 ID:vsMqsvZn.net
>>512
頭の悪い議論を延々と続けたいなら別スレを立てたら?

514 :デフォルトの名無しさん:2017/01/08(日) 19:32:23.01 ID:VTpww55T.net
まぁ自演を続けるのにもそのうち飽きるだろ

515 :デフォルトの名無しさん:2017/01/08(日) 19:33:47.92 ID:ts3G2y2D.net
>>512
お前はゲームのことしか学習してないのか?
それ以前に五感から情報を取得して学習してないか?

516 :デフォルトの名無しさん:2017/01/08(日) 19:34:57.56 ID:VTpww55T.net
次スレでワッチョイ導入して、NGに放り込みやすいようにしよう

517 :デフォルトの名無しさん:2017/01/08(日) 19:38:00.48 ID:ts3G2y2D.net
>>495
>>493
>画像識別もなぁ、単に大量にある画像の中から
>近い画像を見つけるってだけだしな。

>極めて大量の画像があってそれを高速に検索しているだけ。
>だから的中率が上がる。

>人間はそんなことしてないんだよね。
>すごく少ない画像とすごく遅い処理。という前提で
>識別するのが知能。

お前はこう書いてるだろ
識別するときに大量の情報が必要と思ってただろ

518 :デフォルトの名無しさん:2017/01/08(日) 20:31:14.94 ID:xMVs4RXt.net
>>517
両方必要だよ。

画像識別の場合は、学習するときには大量の画像が必要。
識別するときには大量の学習済みデータが必要

519 :デフォルトの名無しさん:2017/01/08(日) 20:45:37.51 ID:ts3G2y2D.net
>>518
具体的にどの手法で?
なんの画像判別をするときに?

520 :デフォルトの名無しさん:2017/01/08(日) 21:29:02.72 ID:TXqGgIea.net
たしかに、俺はきれいなおっぱいを知らないが
きれいなおっぱいを見たときに感動する
つまり、機械にチンポがないのがいけないのではないか?

521 :デフォルトの名無しさん:2017/01/09(月) 04:58:32.74 ID:Cu9K5Cup.net
元研究者がやってるような会社って迷走していくよな
システム計画研究所もそうなんだが

522 :デフォルトの名無しさん:2017/01/09(月) 05:48:12.78 ID:JOAqSyBk.net
毎朝うんこしたらその日の体調診断してくれる便器とか

523 :デフォルトの名無しさん:2017/01/09(月) 06:23:55.46 ID:cwLtlWdl.net
そもそも統計分析について議論しているところに
人工知能がどうとか言い始めるのはどうかと思うんだ

524 :デフォルトの名無しさん:2017/01/09(月) 09:49:08.29 ID:ULzlfIIS.net
入出力の関数処理の関係って知能と呼んでOK?

525 :デフォルトの名無しさん:2017/01/09(月) 09:59:43.72 ID:bKCdSmvv.net
中国人の部屋

526 :デフォルトの名無しさん:2017/01/09(月) 10:05:00.09 ID:/7U8UXhW.net
きのうのscienceZEROでやってたな

527 :デフォルトの名無しさん:2017/01/09(月) 10:06:01.21 ID:/7U8UXhW.net
>>524
一方通行だけじゃなくてフィードバックがあればいいような気がする

528 :デフォルトの名無しさん:2017/01/09(月) 10:07:29.35 ID:+4sInSVu.net
確かに人間でも知能の欠片もないキチガイは一方通行だからつまらん罠

529 :デフォルトの名無しさん:2017/01/09(月) 10:12:15.52 ID:ULzlfIIS.net
学習後は一方通行

530 :デフォルトの名無しさん:2017/01/09(月) 10:14:55.98 ID:cSodeH17.net
ああ公務員のことか

531 :デフォルトの名無しさん:2017/01/09(月) 10:28:29.25 ID:Jh/1IYvM.net
こりゃ、「高卒フリーターだらけの国ニッポン」って韓国にも馬鹿にされるわけだわ

532 :デフォルトの名無しさん:2017/01/09(月) 10:45:19.35 ID:z3gVLhD7.net
ゴミスレに成り果て杉www

533 :デフォルトの名無しさん:2017/01/09(月) 10:57:58.49 ID:Dm7q6S9e.net
日本最先端と名高い機学デーマイスレがこのザマで、
ええんかお前ら・・・

534 :デフォルトの名無しさん:2017/01/09(月) 11:07:33.52 ID:RbIvkBFq.net
>>527
とある科学の一方通行ならしってる

535 :デフォルトの名無しさん:2017/01/09(月) 11:13:49.48 ID:ULzlfIIS.net
じゃあ知能って呼べないね

536 :デフォルトの名無しさん:2017/01/09(月) 11:19:57.91 ID:aQtMaO07.net
抽象的なポエムは知識がなくても書けるからな
うんざりだわ

537 :デフォルトの名無しさん:2017/01/09(月) 11:23:56.03 ID:k1Mmmgl9.net
>>433-434みたいなレスができる中学生は
>>502を参考に。。
ディープラーニングなんてのも、
所詮はデータから関数を作ってるだけにすぎない。

538 :デフォルトの名無しさん:2017/01/09(月) 11:46:59.70 ID:o0RDln5g.net
ID:vZTGYmP6
ID:V8wWSmc2
も中学生に追加

539 :デフォルトの名無しさん:2017/01/09(月) 11:49:33.80 ID:z3gVLhD7.net
ID:o0RDln5g
を小学生に追加すれば良いのですね?

540 :デフォルトの名無しさん:2017/01/09(月) 12:30:03.58 ID:Dm7q6S9e.net
ワオ31歳、若き叡智に震える

541 :デフォルトの名無しさん:2017/01/09(月) 12:32:07.96 ID:poP2LNAr.net
つまりは理解してなかったってことね

542 :デフォルトの名無しさん:2017/01/09(月) 12:45:20.58 ID:4OeNzyzM.net
自演乙

543 :デフォルトの名無しさん:2017/01/09(月) 12:52:09.03 ID:poP2LNAr.net
知らんがな

544 :デフォルトの名無しさん:2017/01/09(月) 13:02:53.24 ID:ZM3HJLmM.net
日本だとディープラーニングを使った提案以外
ほぼ認めらないのが辛いな海外だと精度上がって
効率的にできるならなんでもいいよなののに

545 :デフォルトの名無しさん:2017/01/09(月) 13:10:44.06 ID:z3gVLhD7.net
>>544
多様性が認められない社会だから仕方がない

546 :デフォルトの名無しさん:2017/01/09(月) 13:15:28.20 ID:p9LeFwZS.net
>>544 日本人の柔軟性のなさ。

547 :デフォルトの名無しさん:2017/01/09(月) 13:39:10.82 ID:Cu9K5Cup.net
営業力の違い。
営業に華僑、印僑、ユダヤを雇えばなんとか

548 :デフォルトの名無しさん:2017/01/09(月) 13:44:19.13 ID:fQnW9EuO.net
ディープラーニング以外の方法が軒並みディープラーニングにかなわない認識率だから仕方ない
裏を返せば、人工知能界隈はディープラーニングだけが図抜けただけで他の進歩はない
買い被られすぎている

549 :デフォルトの名無しさん:2017/01/09(月) 13:49:55.87 ID:RbIvkBFq.net
>>548
知ったか乙

550 :デフォルトの名無しさん:2017/01/09(月) 13:50:36.93 ID:cjVtQucR.net
>>544
それホント?

551 :デフォルトの名無しさん:2017/01/09(月) 13:51:08.31 ID:z3gVLhD7.net
>>548
自分でやったことがないのが丸わかり

552 :デフォルトの名無しさん:2017/01/09(月) 14:28:13.44 ID:pwFGbl4X.net
>>548
どの認識問題に対してどのネットワークが優れているのか言ってごらん

553 :デフォルトの名無しさん:2017/01/09(月) 14:39:33.06 ID:k1Mmmgl9.net
547を擁護してるわけじゃないが
時間的に連投してるから自演くさいな

554 :デフォルトの名無しさん:2017/01/09(月) 15:29:56.98 ID:Jh/1IYvM.net
それ以上に547=552に見えて仕方がねえな

555 :デフォルトの名無しさん:2017/01/09(月) 15:48:39.81 ID:+4sInSVu.net
552=553
じゃね

556 :デフォルトの名無しさん:2017/01/09(月) 15:58:16.66 ID:k1Mmmgl9.net
552は単独のなんだけど、まあいいや。
>>549-552が一人の書き込みだったら必死すぎてうけるww

557 :デフォルトの名無しさん:2017/01/09(月) 16:20:40.03 ID:/3dsHunZ.net
>>556
いや、あんたが必死過ぎる。放っておけよ

558 :デフォルトの名無しさん:2017/01/09(月) 17:06:14.30 ID:4OeNzyzM.net
一人であるという可能性を排除する合理的理由がないからな

559 :デフォルトの名無しさん:2017/01/09(月) 17:13:39.00 ID:/bDncKYI.net
○であるという可能性を排除する合理的理由がないからな

○の中に面白い言葉を入れて遊びなさい

560 :デフォルトの名無しさん:2017/01/09(月) 17:28:53.96 ID:a07EDxnX.net
答えられなくて流れ着いた文系が発狂してる

561 :デフォルトの名無しさん:2017/01/09(月) 19:54:09.69 ID:WWwzP2Ta.net
積層オートエンコーダの書籍でお薦めある?
論文しかないかなぁ

562 :デフォルトの名無しさん:2017/01/09(月) 20:04:44.67 ID:vJmjyrTZ.net
>>561
あんなもん、本を読むほどのもんじゃないだろw caffe の入門書あたりなら言及ありそうだが

563 :デフォルトの名無しさん:2017/01/09(月) 20:09:03.55 ID:Z/GXP5pv.net
>>561
今まで何を読んだ?
それに載ってなかった?

564 :デフォルトの名無しさん:2017/01/09(月) 20:19:01.26 ID:JP3B1fld.net
積層の理解なんていらない。
主成分分析との関係がわかれば十分。
というか、主成分分析をほうを理解すればよい。あるいは主成分分析のコードを書いてみたり、その結果から次数さげてみたり。

565 :デフォルトの名無しさん:2017/01/09(月) 20:56:05.81 ID:cjVtQucR.net
>>564
本当に?
ディープラーニングとはどう関係するの?

566 :デフォルトの名無しさん:2017/01/09(月) 22:18:36.36 ID:ZM3HJLmM.net
>>565
DBNとPCAの関係考えれば自明だろ

567 :デフォルトの名無しさん:2017/01/09(月) 22:41:52.00 ID:RbIvkBFq.net
>>565
真に受けるな、次元圧縮という視点だけで同一視してる極論。そもそも線形だし

568 :デフォルトの名無しさん:2017/01/09(月) 23:32:06.28 ID:cjVtQucR.net
RBMだろ

569 :デフォルトの名無しさん:2017/01/10(火) 00:08:27.84 ID:N74TPYKx.net
>>567
オートエンコーダで完全に入出力が一致すれば主成分分析と結果一致するのは数学的に証明されてるのに、何故否定??
ちゃんと理解したうえで言ってる??

570 :デフォルトの名無しさん:2017/01/10(火) 00:18:55.31 ID:N74TPYKx.net
>>568
目的は一緒だが、やってることは違う

571 :デフォルトの名無しさん:2017/01/10(火) 00:57:02.71 ID:mL71GP1A.net
オートエンコーダで積層にしているのは
2層だけだと収束が悪いので多層にしてるだけ。
ディープラーニングのメインコードとはもともと関係がない。

普通のオートエンコーダを理解すれば十分だけど、
>>564の言うとおり、条件を限定すれば
オートエンコーダの結果は主成分分析と一致する。

主成分分析の性質を理解することがオートエンコーダの理解に繋がる。
566は論外。

572 :デフォルトの名無しさん:2017/01/10(火) 01:06:43.42 ID:Lw+Ts/nh.net
>>571
主成分分析の何と一致する?
固有値や固有ベクトルは?

573 :デフォルトの名無しさん:2017/01/10(火) 01:18:00.94 ID:N74TPYKx.net
訓練データ{x1,x2,...}の共分散行列を作って、得られた固有ベクトルを並べたて格納した行列を新しい重み行列とすると、それはオートエンコーダで得られた重みと理論的には一致する。
共分散行列の固有値は次元の寄与率と考えることができて、小さい値の固有値の固有ベクトルは削除しても影響が小さい。

574 :デフォルトの名無しさん:2017/01/10(火) 01:21:19.35 ID:N74TPYKx.net
てかそんぐらいググればいくらでも出てくる

575 :デフォルトの名無しさん:2017/01/10(火) 01:22:37.28 ID:N74TPYKx.net
失礼。
聞かれたのは俺じゃないな

576 :デフォルトの名無しさん:2017/01/10(火) 01:27:47.53 ID:N/5FQeNb.net
おまいらマジで頭よかったんだな
てっきり知能ポエムしか書けない連中だと見下してたわ

577 :デフォルトの名無しさん:2017/01/10(火) 01:31:09.96 ID:N74TPYKx.net
つまり、オートエンコーダは、異なる入力に対して異なる結果になるように重り行列を最適化する。
(多数の入力が同じ結果にならないように最適化)

オートエンコーダで次元を下げるとかっていう話は実は二の次の話。

578 :デフォルトの名無しさん:2017/01/10(火) 01:38:22.11 ID:N74TPYKx.net
上の情報だけで、つまりって言っちゃ、やや飛躍があるな。
共分散行列の固有ベクトルがはる空間
に入力ベクトルを持ってくることで上手くベクトルが分散してくれる

579 :デフォルトの名無しさん:2017/01/10(火) 01:53:41.11 ID:/W/3Nfpm.net
畳み込みニューラルネットワークのフィルタってサイズの大きさどう設定すりゃいいの?
あと全結合層の層数って増やす意味ある?

580 :デフォルトの名無しさん:2017/01/10(火) 06:52:44.79 ID:Lw+Ts/nh.net
>>578
固有値の大きな固有ベクトルから順に得られるかどうか判らないのでは?

581 :デフォルトの名無しさん:2017/01/10(火) 07:36:02.51 ID:N74TPYKx.net

質問がよく分からない
どんな状況下にあるか、自分で手を動かして考えてみてください

582 :デフォルトの名無しさん:2017/01/10(火) 08:32:52.11 ID:rVEdN69p.net
いまどきの国立大以上の工学部では
ディープラーニングの演習もあるのかしらん?

583 :デフォルトの名無しさん:2017/01/10(火) 11:14:30.29 ID:/a9Ojlhv.net
オートエンコーダは、非線形性があるところは違うだろ
一層毎に非線形性があるんだから、スタックする意味もあるし

584 :デフォルトの名無しさん:2017/01/10(火) 11:59:53.15 ID:N74TPYKx.net
>>583
それっていちいち突っ込むところ?
恒等写像の場合である程度重みの最適化の足掛かり掴んでるから十分だろ?

文句があるならカーネル関数使った主成分分析方法があるからそれ使え。

585 :デフォルトの名無しさん:2017/01/10(火) 12:24:27.91 ID:VX/m3eLk.net
>>584
主成分分析しか知らないって言えばいいのにwww

586 :デフォルトの名無しさん:2017/01/10(火) 12:26:57.52 ID:K8NZx8C0.net
だいたい積層オートエンコーダを質問してるのに、何で延々と主成分分析の話しをしてるんだか w
積層オートエンコーダ == 主成分分析 では断じてないことさえ分からんのかw

587 :デフォルトの名無しさん:2017/01/10(火) 12:28:15.08 ID:N74TPYKx.net
何かろくに理論知らないクズ野郎しかしいないって思いたくないんだが‥‥
(そもそもこっちはただのサラリーマンだし)

588 :デフォルトの名無しさん:2017/01/10(火) 12:29:38.43 ID:BtJxF5z4.net
>>581
寄与率の大きな固有ベクトルから順に結合として得られる保証があるのかってこと
固有ベクトルの個数は隠れ層のユニット数だろうけど
それが寄与率の大きなものから順に得られるのか?

589 :デフォルトの名無しさん:2017/01/10(火) 12:32:59.59 ID:N74TPYKx.net
ハイハイ分かった分かった
オートエンコーダ経由での物理現象の説明はこっちはわかりません。
自分で調べてください。

ちなみにオートエンコーダでの次数下げは単独でユニット数減らすだけ

590 :デフォルトの名無しさん:2017/01/10(火) 12:39:37.42 ID:K8NZx8C0.net
>>589
これ、笑うところ?www
| ちなみにオートエンコーダでの次数下げは単独でユニット数減らすだけ

591 :デフォルトの名無しさん:2017/01/10(火) 12:41:56.72 ID:VX/m3eLk.net
>>589
表面しか見れないんだな。
deep learning は全然知らないと言えばいいのに

592 :デフォルトの名無しさん:2017/01/10(火) 12:43:02.69 ID:N74TPYKx.net
単独で中間層のユニット数減らすだけ!

593 :デフォルトの名無しさん:2017/01/10(火) 12:44:08.26 ID:N74TPYKx.net
そもそも>>571でなんで積層にしてるかいてるでしょ

594 :デフォルトの名無しさん:2017/01/10(火) 12:48:34.70 ID:N74TPYKx.net
あーこんな頭の悪いやつのせいで昼休み無駄になった

595 :デフォルトの名無しさん:2017/01/10(火) 13:30:06.45 ID:s989ZmsY.net
最終的且つ不可逆的な解決に向け相互努力を誓います

596 :デフォルトの名無しさん:2017/01/10(火) 13:44:18.27 ID:s989ZmsY.net
>>572
おまえは何を言っているのだ?
主成分分析なんて固有値や固有ベクトルそのものだろ

597 :デフォルトの名無しさん:2017/01/10(火) 13:53:31.34 ID:a6nVb6Xo.net
昼休みこんなところで鬱憤を晴らすサラリーマンねぇ
仕事できる子なのか不安

598 :デフォルトの名無しさん:2017/01/10(火) 14:52:03.64 ID:HuxjibLD.net
バックグラウンドの数学的な話はわかって無くてなんとなくで使っているのですが
WekaでBayesnetを使ってクラス分類をしているのですが、
理想よりだいぶ正解率が低いので、その原因を知りたいと思っています
(どの変数が悪影響を及ぼしてるのかとか)
そのようなことは可能でしょうか?
また、「ガウス分布に当てはめれば分類モデルの誤差が見積もれる」
みたいな話を聞いたことがあるのですが、これはどういうことでしょうか?

599 :デフォルトの名無しさん:2017/01/10(火) 15:06:26.74 ID:UBJKCQag.net
無の字の使い方を学習させると
誰が自演書き込みしてるのか判るな

600 :デフォルトの名無しさん:2017/01/10(火) 15:08:08.34 ID:BtJxF5z4.net
>>599
正解率はどのくらいか判ってるのか

601 :デフォルトの名無しさん:2017/01/10(火) 15:11:49.90 ID:BtJxF5z4.net
>>596
理解できてないならレスしなくて良い

602 :デフォルトの名無しさん:2017/01/10(火) 21:55:01.12 ID:5Ydwym5y.net
>>598
じゃあ使うなまず数学やれよ
数学やらない奴は使うなよ

603 :デフォルトの名無しさん:2017/01/10(火) 23:19:51.15 ID:6tVxUfvD.net
>>588に誰か答えないんかな?
画像認識やったことないからフィルターサイズの決め方なんて知らない。

認識したい対象(文字とか?)のサイズとか、どこまでエッジを拾いたいかで決めんのかね?
(あるいはサイズ違いのフィルターを繰り返す?)

604 :デフォルトの名無しさん:2017/01/10(火) 23:23:42.42 ID:6tVxUfvD.net
失礼しました
>>588でなく>>579です

605 :デフォルトの名無しさん:2017/01/11(水) 05:53:27.99 ID:W9WOgN09.net
>>603
ここでレスがあったとしても本当の事か判らない
実際に確かめてみるしかない
サイズを変えてデータを取って分析しろ
データ分析くらいできるのだろ

606 :デフォルトの名無しさん:2017/01/11(水) 07:32:56.06 ID:foy5T8YQ.net
>>597
仕事で嫌なことでもあったんだろ
上司に怒られて当たり散らしてる感じw

607 :デフォルトの名無しさん:2017/01/11(水) 07:37:59.91 ID:foy5T8YQ.net
>>603
定石があって大体あたりがつくよ
パラメータを変えて精度・速度を実験するのは初学者が最初にやる

608 :デフォルトの名無しさん:2017/01/11(水) 08:23:21.88 ID:l2JfDQy7.net
>>579 >>603
フィルタサイズの選択肢は実際には限定的、定番モデルを参考にすれば良い。
全結合層の層数を増やす意味は通常はない。

609 :デフォルトの名無しさん:2017/01/11(水) 08:25:01.91 ID:p4aAjtoW.net
海外の人は数日でこのレベルに到達するぐらい素養があるけど日本人は全く素養がないから諦めた方がいい

http://gigazine.net/news/20170111-tensorkart-mariokart-tensorflow/

610 :デフォルトの名無しさん:2017/01/11(水) 08:29:04.22 ID:zHamHZ4N.net
自分はkeras使ってるが問題ないようで安心したわ。
chainerはもういらんな。

611 :デフォルトの名無しさん:2017/01/11(水) 12:29:16.31 ID:xxQxfc5N.net
>>607
最初にやるような事もやってないって事じゃね

612 :デフォルトの名無しさん:2017/01/11(水) 17:24:11.80 ID:/t0evEjj.net
chainer否定厨うぜえ
仲良くやれよ
それかDyNet使えよ

613 :デフォルトの名無しさん:2017/01/11(水) 19:26:45.58 ID:lXi56hH9.net
TensorFlowは1.0αかよ
昨年12月1日に0.12がリリースされたばかりなのに

614 :デフォルトの名無しさん:2017/01/12(木) 00:53:03.54 ID:0lQ7NCef.net
0.12.0 のステーブル版が出たのはお正月くらいだったよ
それを受けての 1.0 alpha 発表でしょ

615 :デフォルトの名無しさん:2017/01/12(木) 01:07:26.07 ID:yGw8XzLF.net
つまり 0.12.1 がほぼそのまま 1.0.0-alpha になってるのか

616 :デフォルトの名無しさん:2017/01/12(木) 08:13:48.15 ID:EOPVv7Sc.net
クラウド商用とOSSで開発ブランチ分けるらしいからその前の整理だな

617 :デフォルトの名無しさん:2017/01/12(木) 08:19:14.49 ID:F21c8apY.net
ああ、なるほどね。
1.0 ベースで cloud ml を正式版にするわけか

618 :デフォルトの名無しさん:2017/01/12(木) 08:28:01.89 ID:D/kCxt4Z.net
たった1ヶ月で10倍賢くなったのか
こりゃシンギュリティだな

619 :デフォルトの名無しさん:2017/01/12(木) 08:32:23.88 ID:yGw8XzLF.net
>>616 >>617
googleはこういうの手慣れてるな

620 :デフォルトの名無しさん:2017/01/12(木) 10:41:13.63 ID:6zPdGjUM.net
最近、GTX980Tiが安いけどさあ
これって1080の1割引ぐらいの性能は出るんかな?

621 :デフォルトの名無しさん:2017/01/12(木) 10:48:52.97 ID:D/kCxt4Z.net
Googleに入社すればGAEがタダで使えるで

622 :デフォルトの名無しさん:2017/01/12(木) 10:50:48.35 ID:r/NJbiIE.net
なるほど
Appleに就職すればよかった

623 :デフォルトの名無しさん:2017/01/12(木) 10:55:14.49 ID:D/kCxt4Z.net
AppleWebServerもいいよね

624 :デフォルトの名無しさん:2017/01/12(木) 12:42:27.89 ID:3KTZZ0jx.net
TensorFlow OSS版は切り捨てられる?あるいは差別化される?

625 :デフォルトの名無しさん:2017/01/12(木) 12:43:54.99 ID:b+ED7Ag1.net
そうなったらApache下でフォークされてHadoopみたいになるだけよ

626 :デフォルトの名無しさん:2017/01/12(木) 13:23:04.66 ID:6zPdGjUM.net
GAEを借りてもらう前提として、OSS版を使ってコードを書いてもらう必要があるんだろうからね
どちらでも同じコードが動くようにはしてくれるんじゃないかと思うけど・・・・・
ただGoogleにとってサポートしても得がないCUDAのサポートとか続くんかな?

627 :デフォルトの名無しさん:2017/01/12(木) 14:11:33.05 ID:nKV4yPgD.net
>>626
分からないのに無理して書き込まなくていいからw

628 :デフォルトの名無しさん:2017/01/12(木) 14:29:58.74 ID:6zPdGjUM.net
>>627
残念ながら無理して書くような内容なんて書いてないんだけど

629 :デフォルトの名無しさん:2017/01/12(木) 14:35:48.77 ID:6O75WW/Q.net
>>628
横からだが、そもそも GAE という時点で間違ってるよ

630 :デフォルトの名無しさん:2017/01/12(木) 14:37:29.18 ID:yGw8XzLF.net
>>628
わりと突っ込みどころ多いとは思う。

631 :デフォルトの名無しさん:2017/01/12(木) 21:19:42.27 ID:PFwuR66g.net
OSS版はGPU最適化用のコードいずれドロップ
して高速版が欲しければ商用買えよってスタンスで
行くつもりだから
かなり急ぎ足で1.0出しているし技術者主導ではなくなると思うよ

632 :デフォルトの名無しさん:2017/01/12(木) 21:53:35.36 ID:GcbET4TA.net
ポエム野郎がいなくなったのは有難い

633 :デフォルトの名無しさん:2017/01/12(木) 22:04:12.06 ID:damdR0/o.net
>>631
頭悪いレスやめようよ、真に受ける人いるから

634 :デフォルトの名無しさん:2017/01/12(木) 22:08:16.15 ID:KUT30rWT.net
昼間から高卒大国ニッポンしてるね
おきちがい

635 :デフォルトの名無しさん:2017/01/12(木) 22:15:58.79 ID:yGw8XzLF.net
>>631
もういいって

636 :デフォルトの名無しさん:2017/01/12(木) 22:25:19.38 ID:D/kCxt4Z.net
やっぱこれからはチャイナー使お

637 :デフォルトの名無しさん:2017/01/12(木) 22:34:44.20 ID:b+ED7Ag1.net
TensorFlowが死んでもChainerの時代は来ないよ
まあApacheが引き取るだろ

638 :デフォルトの名無しさん:2017/01/12(木) 22:38:45.10 ID:D/kCxt4Z.net
アパーチェが引き取って誰が開発するねんねんで
アホか

639 :デフォルトの名無しさん:2017/01/13(金) 01:56:41.62 ID:n29hWmfn.net
GCPのGPUインスタンスいつなったら作るんだ?
TensorFlowをGPUで使うならPCかAWS使えってことか?

640 :デフォルトの名無しさん:2017/01/13(金) 05:45:15.56 ID:6kgyQzos.net
CNTK&Azureとか

641 :デフォルトの名無しさん:2017/01/13(金) 10:47:54.68 ID:UqLgiWVO.net
>>639
cloud ml でいずれ対応予定

>>640
cntk は名前変わった、人気ない証拠だと思うからやめといた方が…

642 :デフォルトの名無しさん:2017/01/13(金) 12:03:29.94 ID:aGn4Qyi/.net
Microsoft Cognitive Toolkitになったのか
ppapみたいだからcntkの方が好きなのに

643 :デフォルトの名無しさん:2017/01/13(金) 15:49:38.36 ID:fe/WbToJ.net
>>16
実はこれいいとこついてるんだよな

なぜか日本の「理系」というのは自分にとって都合のいい「理系」像をつくりたがる
>>16の例でいえば理系=数学科
「日本の数学科ではルベーグ積分は・・・」とかけばいいのに
なぜかこういうところでも「理系」といいたがる
(ちなみにMARCH以下だと数学科でもルベーグ積分は必修にならないところも多い)

このくらいなら別にかわいいもんだが、問題は文系批判するときに
自分の都合のいい「理系」像をつくって、「理系では常識だが・・・」みたいなことを
言い始める

644 :デフォルトの名無しさん:2017/01/13(金) 15:54:10.29 ID:Pc+dvNDW.net
>>642
cognitive toolkit って、日本人には馴染みにくいネーミングだな

645 :デフォルトの名無しさん:2017/01/13(金) 15:55:01.93 ID:8aFi8ZmB.net
>>66
中井に限らず機械学習ってそんなもんだよ
やってみてうまくいけばそれでオッケー
理屈は考えない

646 :デフォルトの名無しさん:2017/01/13(金) 16:02:28.28 ID:D8OhZXXD.net
TFとかの技術的な話題が続くと
ポエマーが出てくるな www

647 :デフォルトの名無しさん:2017/01/13(金) 16:03:35.84 ID:D8OhZXXD.net
>>639
うちの会社は AWS でTFやってる

648 :デフォルトの名無しさん:2017/01/13(金) 16:38:21.03 ID:CxR0wGzB.net
>>643
どうした?
馬鹿にされたか?

649 :デフォルトの名無しさん:2017/01/13(金) 16:48:24.35 ID:YYdJyp6W.net
会社で話し相手がいないのだろう

650 :デフォルトの名無しさん:2017/01/13(金) 18:11:49.06 ID:lc9PWiW7.net
ニューロンを1つを取り出した時、全ての入力に対してウエイトを設定するのが普通っぽいけどさあ
y = w1x1 + w2x2 + b1
これって、w2を省いて
y = w1x1 + x2 + b1
でも変わんないんじゃないの?

651 :デフォルトの名無しさん:2017/01/13(金) 18:15:03.76 ID:7nt2TZrV.net
変わるだろうが
何言ってんだ

652 :デフォルトの名無しさん:2017/01/13(金) 18:47:45.35 ID:PuHBhPCs.net
>>650
w2=1に正規化した感じで上手くいく事もあるだろうけど
w2=10^-6とか小さな値だったりしたらちがうかも

653 :デフォルトの名無しさん:2017/01/13(金) 18:57:07.62 ID:aGn4Qyi/.net
649の情報だけでよく問題点が指摘できるな
w1x1の時点でくらくらしたわ
w_1 x_1

654 :デフォルトの名無しさん:2017/01/13(金) 18:58:06.74 ID:jboUB245.net
うっせえなw

655 :デフォルトの名無しさん:2017/01/13(金) 19:05:25.15 ID:fh7lO1k1.net
ぶっちゃけ、このスレの人って数学出来ない人ばっかだよね。

656 :デフォルトの名無しさん:2017/01/13(金) 19:19:23.79 ID:PuHBhPCs.net
>>655
お前もな

657 :デフォルトの名無しさん:2017/01/13(金) 19:35:40.15 ID:TmjKlfjT.net
数学科以外は数学苦手じゃない?

658 :デフォルトの名無しさん:2017/01/13(金) 19:42:39.33 ID:lc9PWiW7.net
>>652
そうかあ
計算が楽になるかと思ったんだけどなあ

659 :デフォルトの名無しさん:2017/01/13(金) 19:48:45.80 ID:PE3cJKgA.net
数学ってどの範囲だよ

660 :デフォルトの名無しさん:2017/01/13(金) 19:55:40.32 ID:ABpVxO8v.net
またこの話しかよw 自分は数学科卒だけど、
機械学習で必要な数学なら教養で学ぶ線形代数で十分だってw

661 :デフォルトの名無しさん:2017/01/13(金) 21:03:41.52 ID:p0SJfhAz.net
>>660
統計とか確率の知識もあった方が良いと思う

群とか圏とか使えるかもしれない
まだはっきり判ってない事もあるだろうし

662 :デフォルトの名無しさん:2017/01/13(金) 21:11:41.84 ID:P+aIog0d.net
>>602みたいなこと言う奴もいるから
やっといた方がいいよ

663 :デフォルトの名無しさん:2017/01/13(金) 21:38:13.05 ID:udSHd9JP.net
話し相手がいないのか、可愛そうに

664 :デフォルトの名無しさん:2017/01/13(金) 21:42:14.15 ID:2UoNihoi.net
必要な数学なんてその人がどこまで必要としているかで決まる
基本機械学習は応用数学なのだから使おうと思えば数学は無制限に必要になる
単にプログラム組んで結果みるだけでいいなら数学は必要ない

665 :デフォルトの名無しさん:2017/01/13(金) 21:42:50.89 ID:yzzW48ii.net
いやあ、こういう流れ見るとTwitterでは味わえないインターネットらしさを感じられて好きだよ

666 :デフォルトの名無しさん:2017/01/13(金) 22:26:25.77 ID:jboUB245.net
deepanalyticsでcookpadのがでてるけどやんない?

667 :デフォルトの名無しさん:2017/01/13(金) 22:32:43.23 ID:JaLaNRFH.net
>>657
んなこたーない。頭いいやつは数学で飯食ってこうなんて思わない

668 :デフォルトの名無しさん:2017/01/13(金) 22:49:55.50 ID:9L2JHio8.net
そもそも頭いいやつは金を稼ごうとは思わない

669 :デフォルトの名無しさん:2017/01/13(金) 22:58:01.44 ID:ABpVxO8v.net
>>661
それはそうかな、でも中心極限定理も使わないし、ガウス分布程度で最初は十分かと。
そもそも確率論はまだしも、統計みたいな応用は数学科じゃほとんどやらんし

>>664
無制限に必要になんからならないよw 例えば多様体や群・環のような基礎知識さえ普通はいらん

670 :デフォルトの名無しさん:2017/01/13(金) 23:00:08.25 ID:LA+BfcBl.net
>>660
そういうこと言うな二度というな
みんな抽象数学に縛り付けておいて
混乱させるのが目的なのに真実を書くな

671 :デフォルトの名無しさん:2017/01/13(金) 23:01:37.81 ID:ABpVxO8v.net
>>667
うちんとこは数学で飯食ってるやつばかりだぞw

672 :デフォルトの名無しさん:2017/01/13(金) 23:08:45.61 ID:anO+R0kw.net
>>669
manifold learningでググってみ
グレブナー基底 機械学習でググってみ

もう一度言うが研究レベルでは数学は無制限に使う

673 :デフォルトの名無しさん:2017/01/13(金) 23:10:26.64 ID:anO+R0kw.net
「無制限に」っていうのはもちろん潜在的・可能性としてはの意味にすぎないわけだが、

それでも>>669が出してきている例くらいの数学は研究者によっては普通に使う

674 :デフォルトの名無しさん:2017/01/13(金) 23:10:54.01 ID:E5kBStXl.net
>>672
あんたバカじゃないの?

675 :デフォルトの名無しさん:2017/01/13(金) 23:11:25.26 ID:anO+R0kw.net
反論できなくなっちゃったかw

676 :デフォルトの名無しさん:2017/01/13(金) 23:13:53.09 ID:zDVcTTvx.net
>>673
機械学習を始めるに必要な数学の話をしてることに気付けよw
ハードルあげて嫌がらせなら、真に受けるやついるからやめろ

677 :デフォルトの名無しさん:2017/01/13(金) 23:16:02.51 ID:PBFfeFuD.net
いんじゃね。切り捨てて。勉強しようともしてないやつなんか。

678 :デフォルトの名無しさん:2017/01/13(金) 23:16:15.74 ID:LA+BfcBl.net
>>673
ストラング:計算理工学読めばいい
その程度でなんとかなるからマジレスしちゃうと
もう騙して混乱させて遊べないからあきらめよう

679 :デフォルトの名無しさん:2017/01/13(金) 23:17:17.36 ID:anO+R0kw.net
研究レベルって言ってるよね
日本語読めないの?
数学以前の問題だよ

680 :デフォルトの名無しさん:2017/01/13(金) 23:18:22.30 ID:anO+R0kw.net
>>678
現実に研究レベルでは多様体も代数学も必要になるんだよなぁ
素直にググればわかることあきらめよう

681 :デフォルトの名無しさん:2017/01/13(金) 23:20:33.64 ID:E5kBStXl.net
>>679
>>664 の時点で言ってないようだが?

682 :デフォルトの名無しさん:2017/01/13(金) 23:20:47.40 ID:HIDbyJg+.net
会社のPCに全部tensorflowインストールしてクラスタ化して毎日夜中だけ計算させるとかどうだろう

683 :デフォルトの名無しさん:2017/01/13(金) 23:21:23.25 ID:anO+R0kw.net
いっておくけど入門レベルでたいした数学はいらんよ
それは>>664の言う通り

別に混乱などさせてはいない
その人のレベルにあったことをすればいいだけ

684 :デフォルトの名無しさん:2017/01/13(金) 23:21:24.80 ID:PBFfeFuD.net
ただモデル化が抽象的過ぎると流行んなくなるから、そこはよく考えてね。

685 :デフォルトの名無しさん:2017/01/13(金) 23:23:43.90 ID:zDVcTTvx.net
>>679
>>669 は「普通は」って言ってるぞ
日本語読めないのはあんただろwww

686 :デフォルトの名無しさん:2017/01/13(金) 23:24:41.69 ID:anO+R0kw.net
普通ってなに?
研究者にとってはグレブナー基底とか「普通」なんだけど

687 :デフォルトの名無しさん:2017/01/13(金) 23:26:00.61 ID:E5kBStXl.net
>>686
研究者のスレで吠えろや、池沼 wwww

688 :デフォルトの名無しさん:2017/01/13(金) 23:27:05.41 ID:iClQ+K3G.net
まぁいいからあまり揚げ足とかいらんから。
ちゃんとした研究者がいて安心したから

689 :デフォルトの名無しさん:2017/01/13(金) 23:27:17.64 ID:zDVcTTvx.net
>>686
さすがにそれは無理がある

690 :デフォルトの名無しさん:2017/01/13(金) 23:34:49.17 ID:ABpVxO8v.net
何か地雷踏んじゃったみたいだ … 数学ネタはやめよう、ごめんな m(_ _)m

691 :デフォルトの名無しさん:2017/01/13(金) 23:50:46.85 ID:LA+BfcBl.net
>>686
どうせグレブナー基底と巨乳とか見て
感化されただけだろw?

692 :デフォルトの名無しさん:2017/01/14(土) 01:51:06.38 ID:ByMN1Bsi.net
グレブナー基底が普通 キリッ
とか言いながら論破されて逃亡する自称研究者 www
何か前にも似たようなことあったな

693 :デフォルトの名無しさん:2017/01/14(土) 01:53:11.85 ID:ByMN1Bsi.net
>>682
tensorflowの分散は易しくはない

694 :デフォルトの名無しさん:2017/01/14(土) 02:12:10.37 ID:FiBveJJ+.net
>>692
どこが論破されたんだ?

695 :デフォルトの名無しさん:2017/01/14(土) 08:45:24.97 ID:xqd9HsqZ.net
グレブナ基底って実例はポン酢だよな

696 :デフォルトの名無しさん:2017/01/14(土) 09:18:01.14 ID:yS+ngl8t.net
グレブナ基底はなんの役に立つの?、元数学者

697 :デフォルトの名無しさん:2017/01/14(土) 11:48:46.53 ID:UwZK9QUI.net
機械学習の本質がわかった。

知能(AI)がなくとも大量のデータがあれば統計的に
それらしい答えを導き出せることができる。

コンピュータは人間のような効率的な学習はできないが、
コンピュータパワーを使えば、効率は悪くとも
大量に経験を積ませることができる。

この「効率の悪いが大量の経験」をさせることが機械学習なんだ。

698 :デフォルトの名無しさん:2017/01/14(土) 12:13:00.51 ID:3uB2hVBb.net
>>697
なんか違う

699 :デフォルトの名無しさん:2017/01/14(土) 12:17:31.12 ID:u4MOb4qx.net
言葉で理解するから>>697みたいな奴が増える。

700 :デフォルトの名無しさん:2017/01/14(土) 12:18:35.88 ID:u4MOb4qx.net
失礼訂正。
言葉で理解しようとするからry

701 :デフォルトの名無しさん:2017/01/14(土) 12:32:49.14 ID:bwK613iR.net
知能やらそれらしいとか曖昧じゃねーかw

702 :デフォルトの名無しさん:2017/01/14(土) 12:35:17.92 ID:3uB2hVBb.net
少なくとも本質は分かってないよなw

703 :デフォルトの名無しさん:2017/01/14(土) 12:36:48.24 ID:u4MOb4qx.net
これからはもっと増えるんだろうね。
分かった気になってる人

704 :デフォルトの名無しさん:2017/01/14(土) 12:50:42.19 ID:u4MOb4qx.net
>>702も分かってないが

705 :デフォルトの名無しさん:2017/01/14(土) 12:57:06.03 ID:qTDOJKyI.net
>>704
おまえもなw

706 :デフォルトの名無しさん:2017/01/14(土) 13:00:42.49 ID:UwZK9QUI.net
やっぱり反論はなかった。
あってるってことかなー

707 :デフォルトの名無しさん:2017/01/14(土) 13:04:31.57 ID:zD0xY+S2.net
ディープラーニングは機械学習の一つなんだけど。

708 :デフォルトの名無しさん:2017/01/14(土) 13:08:14.66 ID:+2hwB+yk.net
うちの父親もこんな程度の頭だから笑えん

709 :デフォルトの名無しさん:2017/01/14(土) 13:14:55.31 ID:0AaiAFEr.net
>>694
「グレブナ基底が普通」という主張が正しいわけないじゃん、バカじゃないの?

710 :デフォルトの名無しさん:2017/01/14(土) 13:17:10.87 ID:0AaiAFEr.net
>>696
俺も数学で飯食ってるが、使ったこと一度もない。というか、ジジイだろうな、このネタを持ち出すのは

711 :デフォルトの名無しさん:2017/01/14(土) 13:23:44.84 ID:LerKwIdl.net
>>710
あほ、むしろグレブナー基底が機械学習に導入されてきたのは近年になってからだぞ

712 :デフォルトの名無しさん:2017/01/14(土) 13:27:11.19 ID:g+MBXGeK.net
画像分野における伝統的な DL の考え方としてはそんな感じで良いんじゃない?現状の手法における制約を更に打ち破ろう、もっと良い手法を生み出そうと研究を重ねることそのものが本質という考え方もあるだろうけど。

713 :デフォルトの名無しさん:2017/01/14(土) 13:28:42.30 ID:hMIcbMDJ.net
>>711
バカじゃなかろか、おめぇが興味あるだけでほとんど誰も使ってねぇよ www

714 :デフォルトの名無しさん:2017/01/14(土) 13:31:25.94 ID:0AaiAFEr.net
>>711
あほはあんただ、計算機代数みたいなマイナー分野はチラ裏でやってろ

715 :デフォルトの名無しさん:2017/01/14(土) 13:33:07.14 ID:LerKwIdl.net
>>713
>バカじゃなかろか

おまえがな

716 :デフォルトの名無しさん:2017/01/14(土) 13:33:50.79 ID:ByMN1Bsi.net
誰も興味ない数学ネタは他でやってくれないかな?w

717 :デフォルトの名無しさん:2017/01/14(土) 13:34:24.97 ID:ByMN1Bsi.net
>>715
昨夜の人?荒らしてるわけ?

718 :デフォルトの名無しさん:2017/01/14(土) 13:36:08.93 ID:jfwD01xt.net
誰も興味ない文系ネタもやめてもらえますか?

719 :デフォルトの名無しさん:2017/01/14(土) 13:37:18.15 ID:LerKwIdl.net
×誰も興味ない
〇このスレにいる奴では理解できない

720 :デフォルトの名無しさん:2017/01/14(土) 13:38:43.77 ID:LerKwIdl.net
>>717
荒らしているのは君の方だと思うよ
素直に間違い認めればいいだけなのにw

まぁ、研究レベルの機械学習を理解できる人がいないのは事実っぽいので
もう書き込まないことにしますわw

721 :デフォルトの名無しさん:2017/01/14(土) 13:39:38.44 ID:ByMN1Bsi.net
>>719
それでいいからこのスレに出入りするのはやめて、あなたにふさわしいスレで議論してください

722 :デフォルトの名無しさん:2017/01/14(土) 13:40:25.82 ID:hMIcbMDJ.net
>>720
どう見ても荒らしてるのはあんただろう
あんたが出てくるとスレの雰囲気が悪くなってるじゃないか

723 :デフォルトの名無しさん:2017/01/14(土) 13:41:53.25 ID:hMIcbMDJ.net
>>720
空気嫁ないやつだなぁ

724 :デフォルトの名無しさん:2017/01/14(土) 13:42:19.68 ID:f29MAUgw.net
いい加減、俺も始めようと思って下記3書籍を買ったが他におすすめある?

ITエンジニアのための機械学習理論入門
ゼロから作るDeepLearning
行列プログラマー

725 :デフォルトの名無しさん:2017/01/14(土) 13:46:20.51 ID:hMIcbMDJ.net
>>724
機械学習理論入門はおすすめできない。「理論」入門なんだけどちょっと著者の嗜好性が微妙。
ゼロから作るDeepLearning は良いように思う

726 :デフォルトの名無しさん:2017/01/14(土) 14:33:38.17 ID:Xw0trSpZ.net
既に買ったやつはもういいだろw

727 :デフォルトの名無しさん:2017/01/14(土) 14:47:36.12 ID:u4MOb4qx.net
>>719
理解できる人はいるべ

728 :デフォルトの名無しさん:2017/01/14(土) 14:47:37.64 ID:GN9+SXJp.net
PRML

729 :デフォルトの名無しさん:2017/01/14(土) 15:05:22.26 ID:SauIKXvW.net
>>724
もっとたくさん買わないと、時代のトレンドの流行についていけてないよ

730 :デフォルトの名無しさん:2017/01/14(土) 15:12:59.03 ID:obLvbAT8.net
>>729
トレンドについていくには本買ってたら遅い
本を書くくらいでないと

731 :デフォルトの名無しさん:2017/01/14(土) 15:34:32.29 ID:SauIKXvW.net
>>730
ちんたら本なんて書いてるようじゃまだまだだなぁ

732 :デフォルトの名無しさん:2017/01/14(土) 15:40:34.90 ID:R+sk5YCr.net
グレブナー基底を導入するのは邪道に見える
こねくりまわして精度落としてるだけな気がする

733 :デフォルトの名無しさん:2017/01/14(土) 15:48:47.59 ID:YCtOmQB2.net
>>722
どう見ても素人がガチの研究者に喧嘩売って素直に間違い認められずに
騒いでいるだけに見えるんですが…

734 :デフォルトの名無しさん:2017/01/14(土) 15:48:54.84 ID:hMIcbMDJ.net
>>729-731
マジレスするとペーパーを読みまくるしかない
もっとも Karpathy が指摘しているようにそれも難しいのが現状だがw

735 :デフォルトの名無しさん:2017/01/14(土) 15:51:56.49 ID:hMIcbMDJ.net
>>733
さすがにしつこい

736 :デフォルトの名無しさん:2017/01/14(土) 15:53:41.76 ID:DVS8Q/Ug.net
>>733
2chというのはそういうところだよ

737 :デフォルトの名無しさん:2017/01/14(土) 15:54:37.10 ID:XPdGgowx.net
>>733
匿名掲示板で何を言ってるんだか…
グレブナー基底の知名度をあげるための自演かもしれないだろ

738 :デフォルトの名無しさん:2017/01/14(土) 15:55:37.66 ID:XPdGgowx.net
>>736
ガチの研究者が素人を相手にするかよw

739 :デフォルトの名無しさん:2017/01/14(土) 15:55:41.85 ID:WOjPcyyn.net
>>735
言っておくけど自分は>>720とは別人ですよ

740 :デフォルトの名無しさん:2017/01/14(土) 15:56:35.84 ID:XPdGgowx.net
>>739
自演乙 www

741 :デフォルトの名無しさん:2017/01/14(土) 15:57:43.48 ID:w57gFb1n.net
>>738
それが2chだからw

お前らの普段のどうでもいい書き込みに比べたらよっぽど価値があったと思うわ

742 :デフォルトの名無しさん:2017/01/14(土) 15:58:58.06 ID:XPdGgowx.net
>>741
自演乙 wwwwwwww

743 :デフォルトの名無しさん:2017/01/14(土) 16:03:57.26 ID:3ao4YazJ.net
グレブナー基底とかはともかく、
機械学習に数学は不要だとか学部の線形代数で十分とかのほうがよっぽど害悪とおもうけどな

レス版さかのぼるの面倒だから安価付け内が、最初の方にあった「その人のレベルによる」
が真理だろう

744 :デフォルトの名無しさん:2017/01/14(土) 16:14:47.34 ID:rgpX1Hf4.net
>>741
なんでここにいるの?

745 :デフォルトの名無しさん:2017/01/14(土) 16:32:31.01 ID:UwZK9QUI.net
そこに山があるから

746 :デフォルトの名無しさん:2017/01/14(土) 16:54:06.09 ID:XFZNLkXb.net
レシピ使うだけなら数学大して分からんでも使えると思う

747 :デフォルトの名無しさん:2017/01/14(土) 17:03:41.89 ID:+2hwB+yk.net
数学的なことって言ったらいかに早く計算できる損失関数を書くかぐらいで、他の高速化はワークフレームを作ってるエリート勢に任せるしか無いからな

748 :デフォルトの名無しさん:2017/01/14(土) 17:17:40.14 ID:g+MBXGeK.net
・研究者 (ML の理論やロジックを考える人、偶に高度なプログラマーも)
・プログラマー (理論検証の為のモジュールを作成して研究補佐したり、その結果をライブラリとして整備、メンテする人)
・プログラマー (ライブラリ等を使ってサービス、製品を作る人)
ごちゃ混ぜだから色々噛み合わないんじゃない?皆見てるところが違うと思う。

749 :デフォルトの名無しさん:2017/01/14(土) 17:21:49.98 ID:9GQo+kd9.net
>>748
研究者は学会、研究会で発表したり論文書く人だ

750 :デフォルトの名無しさん:2017/01/14(土) 17:22:12.10 ID:ZCmNSGPu.net
>>748
あとドメインエキスパートもいる
いわゆる企業のデータ分析担当

751 :デフォルトの名無しさん:2017/01/14(土) 17:24:58.09 ID:+2hwB+yk.net
そしてそれらの人数を遥かに超える、人工知能のニュースを見てきた高卒フリーター勢と・・・・

752 :名無しさん:2017/01/14(土) 18:10:30.27 ID:RbQHxeBo.net
無料誹謗中傷対策のブッダワークス
http://www.buddha-works.net

753 :デフォルトの名無しさん:2017/01/14(土) 18:39:05.66 ID:UwZK9QUI.net
機械学習は研究ではなくなってしまったってことなんだよ。
もちろん一部の人はやるんだけど、
大抵の人は機械学習のサービスやシステムやライブラリを使うだけ

で、それでいいんだよね。3Dゲームとかも今や高度な数学など必要ない。
物理演算搭載のUnityでぱぱぱっと作れちゃう。

ゲームプログラマが使う物理演算と同じように
何かのプログラマが使う機械学習というものができてしまった。

754 :デフォルトの名無しさん:2017/01/14(土) 18:59:44.58 ID:W5OVGk82.net
うんまあ一々言われなくても板的に最初からそうだけどねw

755 :デフォルトの名無しさん:2017/01/14(土) 19:19:07.40 ID:nmNo08PI.net
ゼロから作る読み終えてある程度の知識はついた
次にオススメの本教えて

756 :デフォルトの名無しさん:2017/01/14(土) 19:41:51.16 ID:okNLMewx.net
すぐ使える人材はすぐに使えなくなる人材である

757 :デフォルトの名無しさん:2017/01/14(土) 21:03:18.87 ID:1ov7Jv1G.net
何に応用するか考えてるほうが金になる
ネットワーク構造の研究なんて他人に任せておけばいい

758 :デフォルトの名無しさん:2017/01/14(土) 21:40:42.92 ID:zLdTH/cz.net
>>757
金が目的なら株とかやった方が良いんじゃね?
上手くいけば何十億にもなる

759 :デフォルトの名無しさん:2017/01/14(土) 21:50:17.34 ID:okNLMewx.net
うまくいかなかったら大損こくだけなんですが

760 :デフォルトの名無しさん:2017/01/14(土) 21:56:42.06 ID:obLvbAT8.net
応用するのも実現するには金かかる

小規模なら大損なんてならない
現物ならその額以上にはならない

761 :デフォルトの名無しさん:2017/01/14(土) 22:13:39.15 ID:6iiH6slw.net
>>754
ほんとうにこれ

762 :デフォルトの名無しさん:2017/01/14(土) 22:41:09.40 ID:i5gFzqK4.net
いちいち蒸し返すな
しつこい連中だな

763 :デフォルトの名無しさん:2017/01/14(土) 22:46:11.92 ID:hAAO5l81.net
goto error:

764 :デフォルトの名無しさん:2017/01/14(土) 23:31:04.35 ID:u4MOb4qx.net
>>748がごちゃまぜのままでいい
ネタとしては見ておきたいかんね

765 :デフォルトの名無しさん:2017/01/15(日) 00:28:10.61 ID:PMeIKZfc.net
プログラム板なんだが。

766 :デフォルトの名無しさん:2017/01/15(日) 00:38:34.37 ID:0lXewQTe.net
何か定期的に理論畑のやつが現れては噛みついてくけど、スレ違いどころか板違いだわ
同じやつかもしれんが、認められないルサンチマンを晴らすのやめて欲しい

767 :デフォルトの名無しさん:2017/01/15(日) 00:42:58.43 ID:PMeIKZfc.net
>>757
そもそもネットワーク構造の研究で日本人の成果なんて昔のコグニトロンくらいしか見たことないわw

768 :デフォルトの名無しさん:2017/01/15(日) 01:17:55.94 ID:dN6f3Ya+.net
tensorflowの文法とかどこで勉強すりゃいいんだ?
英語読むのだるすぎる

769 :デフォルトの名無しさん:2017/01/15(日) 01:30:04.11 ID:2UGMYedl.net
>>766
解釈間違えてんだもん

770 :デフォルトの名無しさん:2017/01/15(日) 01:32:15.68 ID:2UGMYedl.net
突っ込みたくなるわ
ついでにいうと理論屋兼現場の人間

771 :デフォルトの名無しさん:2017/01/15(日) 03:29:42.00 ID:OwubW5cu.net
英語読むのだるいならプログラミングに向いてないよ

772 :デフォルトの名無しさん:2017/01/15(日) 07:41:51.92 ID:NPiNeOGU.net
>>770
理論屋はどういうところが気になるの?

773 :デフォルトの名無しさん:2017/01/15(日) 08:03:55.71 ID:NPiNeOGU.net
>>767
いっぱいいるじゃん
上田 修功、麻生 英樹、杉山 将、 岡田 真人、櫻井 彰人、杉山 将

774 :デフォルトの名無しさん:2017/01/15(日) 08:42:39.91 ID:8DB47uCq.net
人工知能学会監修の
深層学習P14の\delta_{j}^{(n)}の式間違ってないか?

775 :デフォルトの名無しさん:2017/01/15(日) 09:09:19.67 ID:HLRRROfT.net
TensorFLowのPython API が異様に増えてねぇか?
メソッドが2〜3千あるような気がするが

776 :デフォルトの名無しさん:2017/01/15(日) 10:23:41.26 ID:YbD9havS.net
>>770
凄いな、本当にしつこいんだな、
二度と書き込まないのじゃなかったのか?

777 :デフォルトの名無しさん:2017/01/15(日) 10:26:26.78 ID:PTTSCYnl.net
>>770
プログラム的に何が問題だったの?

778 :デフォルトの名無しさん:2017/01/15(日) 10:28:48.79 ID:PTTSCYnl.net
>>775
他言語で書かれた成果を移植してるみたいだから、それに伴って増えちゃう

779 :デフォルトの名無しさん:2017/01/15(日) 10:36:39.46 ID:J/Pf3wnA.net
>>770
理論屋兼現場?研究者という設定じゃなかったのか? www
現場仕事をしてるなら研究で飯を食ってるんじゃないじゃんw 嘘吐きやろうが

>>775
しかも API 名が微妙に変更されてるしな

780 :デフォルトの名無しさん:2017/01/15(日) 10:42:05.40 ID:YbD9havS.net
進化が激し過ぎるわな、そういう分野なのは分かってるが
chainer も凄く変わった感じがする

781 :デフォルトの名無しさん:2017/01/15(日) 10:45:08.71 ID:J/Pf3wnA.net
まぁだからこそ抽象化された keras でという話しになるわけだが

782 :デフォルトの名無しさん:2017/01/15(日) 10:47:52.85 ID:2UGMYedl.net
誰のこと言っての??俺は二度と書き込みしないなんて言ってないし

783 :デフォルトの名無しさん:2017/01/15(日) 10:47:56.53 ID:8DB47uCq.net
>>781
kerasがtensorflowの変化についていけないとtensorflowを使うメリットが減る

784 :デフォルトの名無しさん:2017/01/15(日) 10:48:36.35 ID:8DB47uCq.net
>>776
どれとどれが同一人物だと妄想しているのか

785 :デフォルトの名無しさん:2017/01/15(日) 10:51:05.30 ID:PTTSCYnl.net
>>782
>>784
自演乙です!

786 :デフォルトの名無しさん:2017/01/15(日) 10:52:03.23 ID:J/Pf3wnA.net
>>783
そこまで tensorflow を使い込んでるなら立派なものだが

787 :デフォルトの名無しさん:2017/01/15(日) 10:53:06.33 ID:2UGMYedl.net
数学ネタ出して別によくね
どうせ上で書いたオートエンコーダも変数減らすぐらいしか知らなかったんだろ?

788 :デフォルトの名無しさん:2017/01/15(日) 10:56:39.44 ID:2UGMYedl.net
プログラマーだけだとイメージが先行して間違えた解釈してることにも気づかないよね。。

789 :デフォルトの名無しさん:2017/01/15(日) 11:00:13.09 ID:PTTSCYnl.net
>>787
あれもあんたかwwww

790 :デフォルトの名無しさん:2017/01/15(日) 11:02:23.56 ID:YbD9havS.net
本当に同じ人だったのね (^_^;)

791 :デフォルトの名無しさん:2017/01/15(日) 11:12:30.21 ID:2UGMYedl.net
ついでいうとこっちは個人で勝手に現場でプログラム書いてたりして遊んでる。ただ、最近会社側が機械学習の企業とやり取りしだしてうざいって思ってんだけど、そこの理論の説明がちゃんと理解してんか怪し過ぎてイライラしてる。

792 :デフォルトの名無しさん:2017/01/15(日) 11:15:43.52 ID:J/Pf3wnA.net
>>791
つまり上で誰かが指摘していたように、仕事上のルサンチマンをスレにぶつけてるわけだな

793 :デフォルトの名無しさん:2017/01/15(日) 11:16:51.16 ID:bgCmDrZY.net
>>791
それでやたら攻撃的なのか

794 :デフォルトの名無しさん:2017/01/15(日) 11:20:56.74 ID:2UGMYedl.net
すまんね。
とりあえず吐き出してちょっとすっきりした。

795 :デフォルトの名無しさん:2017/01/15(日) 11:31:00.65 ID:NPiNeOGU.net
数学者は機械学習をやりません
やっているとのたまう人は落ちこぼれです

数学者は理論屋ではありません
別物です

理論屋は実験をしませんが人工的なデータでシミュレーションをします

現実のデータを扱っているのなら実験屋か工学者です

現実のデータを理論で実験している数学者なんていません
只のほら吹きか単なる馬鹿です

796 :デフォルトの名無しさん:2017/01/15(日) 11:43:03.42 ID:99VG1HXP.net
高卒大国ニッポンらしいスレですね
韓国じゃ考えられませんよ

797 :デフォルトの名無しさん:2017/01/15(日) 11:43:15.20 ID:kgw8mh2A.net
>>773
業績は?

798 :デフォルトの名無しさん:2017/01/15(日) 11:45:21.03 ID:NPiNeOGU.net
あるよ?

799 :デフォルトの名無しさん:2017/01/15(日) 11:53:46.86 ID:2UGMYedl.net
>>795
あれ?俺の存在否定されてる?
まあいいじゃん。たまにはそういう人いても。。
ホラ吹きでいいよ。俺間違えても責任取んないし(ワラワラ)

800 :デフォルトの名無しさん:2017/01/15(日) 11:56:02.40 ID:2UGMYedl.net
馬鹿でもいいよ

801 :デフォルトの名無しさん:2017/01/15(日) 11:57:21.16 ID:99VG1HXP.net
この人、ニコ生の高卒天才松永そっくりすぎて驚くね
興味があったらニコ生を見てみて

802 :デフォルトの名無しさん:2017/01/15(日) 12:16:57.57 ID:NPiNeOGU.net
デンソーあたりの制御屋かな?

803 :デフォルトの名無しさん:2017/01/15(日) 12:18:56.40 ID:PMXG8zDP.net
>>798
アホ?

804 :デフォルトの名無しさん:2017/01/15(日) 12:32:41.76 ID:NPiNeOGU.net
>>799
798の無能さが表れているレス
こんなんだから社外の機械学習の企業を使うことになった

805 :お馬鹿:2017/01/15(日) 13:56:29.52 ID:2UGMYedl.net
無能です

806 :お馬鹿:2017/01/15(日) 15:32:06.46 ID:2UGMYedl.net
あれ?応答がない

807 :むのう:2017/01/15(日) 16:00:29.99 ID:2UGMYedl.net
>>697
俺の考える機械学習の本質はこっち
>>502(当然おれが書いた)

808 :むのう:2017/01/15(日) 16:02:06.77 ID:2UGMYedl.net
あれ?何かズレてる忘れて

809 :デフォルトの名無しさん:2017/01/15(日) 16:04:51.22 ID:wEixuQp0.net
人型ロボット目指すならこの分野の研究するのはベクトルがずれてるンだろうな

810 :デフォルトの名無しさん:2017/01/15(日) 16:14:32.39 ID:NPiNeOGU.net
カルマンフィルタも機械学習

811 :むのう:2017/01/15(日) 16:24:49.39 ID:2UGMYedl.net
ええ??そうか?
評価関数が違うだけでカルマんフィルタなんて最適レギュレータと同類だろ。

812 :むのう:2017/01/15(日) 16:28:56.50 ID:2UGMYedl.net
失礼、応用の用途はカルマンフィルタのほうがはば広いね
ただ、システム同程みたいな従来からある手法を機械学習って呼びたくないな

813 :デフォルトの名無しさん:2017/01/15(日) 16:34:57.44 ID:NPiNeOGU.net
制御理論やってても理論屋じゃないしね

814 :むのう:2017/01/15(日) 16:45:59.22 ID:2UGMYedl.net
あん?
俺はもともと制御屋さんじゃないよ。
制御は授業で、カルマンフィルタは独学でやっただけ。

つまりあなたは俺を理論屋さんって言いたくないのね。
うーん、めんどくさいから一回切るべ

815 :デフォルトの名無しさん:2017/01/15(日) 16:46:56.11 ID:fvCl24Kv.net
どうせ重箱の隅の改良

816 :デフォルトの名無しさん:2017/01/15(日) 17:52:14.41 ID:Ml3VicRr.net
ダメサラリーマンの独り舞台

817 :デフォルトの名無しさん:2017/01/15(日) 18:11:52.26 ID:ZoBZjNyK.net
このスレ、もう実は終わってたんだな

818 :デフォルトの名無しさん:2017/01/15(日) 18:34:22.85 ID:mPtAA3FD.net
ディープラーニングでは不得意な分野があるけれど
それは解決する見込みが無いんだろうな

819 :デフォルトの名無しさん:2017/01/15(日) 19:03:59.85 ID:NPiNeOGU.net
自称理論屋は死んでどうぞ

820 :デフォルトの名無しさん:2017/01/15(日) 19:13:39.54 ID:mPtAA3FD.net
ディープラーニングが通用しない分野が
あるってことはよく知られていることだよ。

基本的にコンピュータが処理するのが得意な分野、
つまり大量のデータを正確に処理することであれば得意だけど、
逆に少量のデータから考えて答えを導き出すようなことは苦手

821 :デフォルトの名無しさん:2017/01/15(日) 19:21:29.96 ID:NPiNeOGU.net
ゴッホ的なタッチを模倣するのがあったけど
そもそものゴッホ的なもの、ビカソのキュビズム的なものに相当する画家の個性そのものも生成可能になると思う

822 :デフォルトの名無しさん:2017/01/15(日) 19:21:38.90 ID:NPiNeOGU.net
ゴッホ的なタッチを模倣するのがあったけど
そもそものゴッホ的なもの、ビカソのキュビズム的なものに相当する画家の個性そのものも生成可能になると思う

823 :デフォルトの名無しさん:2017/01/15(日) 19:49:09.06 ID:mPtAA3FD.net
あれ、個性を認識してるんじゃなくて
単に色と線が似ている部分を置き換えてるだけだよ。

まあこういった課題は、正解がないので
適当な回答であっても人間がそう思ってくれれば
よいので実は簡単だったりするw

人間と手話で会話できるゴリラっていたでしょ?
あれもゴリラが適当にやったことを人間がこうなんじゃいか?って
勝手に想像して認識しただけ。それと同じことが起きてる。

824 :デフォルトの名無しさん:2017/01/15(日) 20:03:21.05 ID:itmwtKVV.net
違います アイちゃん

825 :デフォルトの名無しさん:2017/01/15(日) 20:22:51.86 ID:8DB47uCq.net
>>823
簡単ならやって見せて欲しいものだ
〇〇なだけというなら君はネガティブな事を言ってるだけだし

826 :デフォルトの名無しさん:2017/01/15(日) 20:27:19.85 ID:Ml3VicRr.net
>>825 全然妄想じゃなかったようだぞ?

783 : デフォルトの名無しさん 2017/01/15(日) 10:48:36.35 ID:8DB47uCq
>>776
どれとどれが同一人物だと妄想しているのか

827 :デフォルトの名無しさん:2017/01/15(日) 20:33:08.53 ID:mPtAA3FD.net
>>825
簡単とは言ってないよ。人工知能とはほぼ無関係って話。
http://designcolor-web.com/2012/06/19/vangogh-news/#toc3

828 :デフォルトの名無しさん:2017/01/15(日) 20:33:13.13 ID:03tEOUy2.net
>>825
普通に簡単だろ… 実装コードは幾つも公開されてるぞ。

829 :デフォルトの名無しさん:2017/01/15(日) 20:38:31.34 ID:03tEOUy2.net
>>826
www

自称理論屋はあなたかもしれないw

830 :デフォルトの名無しさん:2017/01/15(日) 20:39:56.11 ID:8DB47uCq.net
>>826
後出しw

831 :デフォルトの名無しさん:2017/01/15(日) 20:40:28.35 ID:NPiNeOGU.net
ココね
奇跡の詩人状態なんじゃないか、っていう

少量のデータっていうけど、少量とは相対的なものだから
コンピュータの処理能力にとってみれば1000万枚の画像は少量だし処理可能なわけで
逆に人間に1000万枚の画像を与えたときにその分だけスケールして高精度になるかといわれればサちって頭打ちになるんじゃないかと

それにいずれ現在より少ないデータで同等のレベル以上に達するアルゴリズムが出てくるでしょう
KSVM以後のPassive Aggressive、Confidence Weighted Algorithm、Adaptive Regularization of Weight Vectorsみたいなふうに

832 :デフォルトの名無しさん:2017/01/15(日) 20:41:08.38 ID:8DB47uCq.net
>>827
>>823に簡単と書いてあるがw

833 :デフォルトの名無しさん:2017/01/15(日) 20:42:09.42 ID:8DB47uCq.net
>>828
それはパクリだ
簡単なら自分で一から作れるだろ

834 :デフォルトの名無しさん:2017/01/15(日) 22:06:10.04 ID:OwubW5cu.net
何もない状態からフルスクラッチできなきゃ難しいとでもいうのか

835 :デフォルトの名無しさん:2017/01/15(日) 22:35:21.89 ID:8DB47uCq.net
>>834
簡単→ゼロから自分で作れる
ゼロから自分で作れない→簡単ではない

ゼロから自分で作れないけど簡単なものって具体的に何?

836 :デフォルトの名無しさん:2017/01/16(月) 07:07:01.90 ID:WtkYzKjH.net
お前の服
お前の食ってる物
お前の住んでる家

簡単だろ?作れるのか?

837 :デフォルトの名無しさん:2017/01/16(月) 07:34:27.42 ID:T2GwwFFs.net
>>836
簡単じゃねーよ

838 :デフォルトの名無しさん:2017/01/16(月) 07:52:43.37 ID:3Uu7W/fv.net
子供

839 :デフォルトの名無しさん:2017/01/16(月) 07:53:36.41 ID:mJO9t+AP.net
TensorFlowのOSS化のニュースのソースはどこなの?

840 :デフォルトの名無しさん:2017/01/16(月) 09:09:43.85 ID:CEdX3mwi.net
ゼロから作る読んだらnumpyとか除いたライブラリなしでフルスクラッチ出来るようになった

841 :デフォルトの名無しさん:2017/01/16(月) 10:30:12.26 ID:CwAqvFXp.net
>>839
GGRKS

842 :デフォルトの名無しさん:2017/01/16(月) 11:43:02.32 ID:rlqB3u3U.net
何かもう飽きたよ
やれることが限定的だしデータだって定番ばかりだ

843 :デフォルトの名無しさん:2017/01/16(月) 11:49:20.72 ID:fw5peNoE.net
定番メニュー食い飽きた?
ならば新メニューを独自開発しよろよ

844 :デフォルトの名無しさん:2017/01/16(月) 12:10:36.71 ID:3Uu7W/fv.net
ビジネスの世界へ行けば面白いぞ
データ関係の分野で面白いのは結局それ使ってどう金を儲けるかだろ

845 :デフォルトの名無しさん:2017/01/16(月) 12:15:43.06 ID:AoxIxxAM.net
deep learning に持ち込めるだけのデータを持つのは難しいから
定番ネタばかりになるのは仕方ない

846 :デフォルトの名無しさん:2017/01/16(月) 12:22:08.83 ID:oQgpUiez.net
ビジネスだとデータなんか無限に湧いてくる

847 :デフォルトの名無しさん:2017/01/16(月) 13:03:32.15 ID:Db0Ey1E9.net
どうやって案件を取って金をぼったくるの?

848 :デフォルトの名無しさん:2017/01/16(月) 14:13:51.01 ID:/WVChNsa.net
時勢がら案件は簡単に取れる、ぼったくるかは貴方しだい

849 :デフォルトの名無しさん:2017/01/16(月) 14:24:06.90 ID:yJEqbzVk.net
>>783
KerasがTensorFlow本体に組み込まれるらしい
ハイレベルAPIとして

850 :デフォルトの名無しさん:2017/01/16(月) 15:46:24.79 ID:u2kLpW+V.net
誰でもディープラーニングが出来る時代になったのはいいけどね
頭の悪さが特徴抽出の出来の悪さに直結して、まともなものが出来ないでござる・・・・

851 :デフォルトの名無しさん:2017/01/16(月) 15:50:56.08 ID:jCRkFUA/.net
>>850
そんなに頭悪いの?他のことやれば

852 :デフォルトの名無しさん:2017/01/16(月) 16:08:40.02 ID:B5rWKi6Q.net
DQNの特徴を抽出して浮き彫りにするプログラム書いてよ

853 :デフォルトの名無しさん:2017/01/16(月) 16:18:08.92 ID:u2kLpW+V.net
そういやDQNってもともと高卒・専門卒以下の学歴を指す言葉だったのに世も変わったな

854 :デフォルトの名無しさん:2017/01/16(月) 16:30:23.12 ID:ufmMavWE.net
>>853
いつから学歴を示す言葉になったの?
無知すぎるからとりあえずwikipedia読んだあと半年romってろ

855 :デフォルトの名無しさん:2017/01/16(月) 16:40:13.99 ID:qGPkeFbt.net
3年じゃないのかw

856 :デフォルトの名無しさん:2017/01/16(月) 16:49:35.19 ID:h1Gia5xw.net
元々のDQNは、マミーってやつがFランの下の人間を指す語として定義した言葉だったんだよ
Wikipediaでも昔のバージョンを見るとその旨が書いてある
https://ja.wikipedia.org/w/index.php?title=DQN&oldid=31106522

857 :デフォルトの名無しさん:2017/01/16(月) 18:01:51.99 ID:xePMEW+E.net
https://youtu.be/quIHgwuF6r4

858 :デフォルトの名無しさん:2017/01/16(月) 18:42:35.41 ID:xmT3FgHt.net
DQNはDeep Q Networkの略です

859 :デフォルトの名無しさん:2017/01/16(月) 20:36:38.91 ID:h1Gia5xw.net
ただこのスレの住人は高卒モン卒の方のDQNだらけ

860 :デフォルトの名無しさん:2017/01/16(月) 20:44:04.59 ID:msgU5aLq.net
Deep Queen Netwoek

861 :デフォルトの名無しさん:2017/01/16(月) 20:57:20.41 ID:Sf7E7n0Z.net
>>853
これは!
いやーきたね!!
逸材だぁ!!!

862 :デフォルトの名無しさん:2017/01/16(月) 23:24:13.31 ID:dJ0UlAFz.net
ベイズやSVMで20クラスほどのクラス分類をしているのですが、クロスバリデーションでは9割以上正解なのに
テストデータでは3割とかになってしまうのは、どういう原因が考えられるでしょうか?
3週データを取得して1週目と3週目を学習データに、2週目をテストデータとしているので
学習データのオーバーフィッティング?もなく学習データとテストデータの性質もバランスが取れているはずなのですが

それと、誤差要因を見出すには誤差項というのを検証するといいみたいなことを聞いたのですが、
ググると回帰分析の話が出てきますが、誤差項というのは連続性のないクラス分類でも検証できるものなのですか?

863 :デフォルトの名無しさん:2017/01/16(月) 23:44:46.33 ID:H9G+c2UE.net
>>862
1週目と3週目のデータで学習するとオーバフィッティングしないという理由が判りません

誤差って何と何の差ですか?

864 :デフォルトの名無しさん:2017/01/17(火) 00:56:15.56 ID:tsbi2MJl.net
>>863
音波とか電波とかを使った位置推定みたいなことをやってます

ああ、過学習っていうのは細かく切り分けすぎみたいなやつですか
日によって外的要因などで変化があることを考慮して、
1週目だけに特化しないようできるだけ多いパターンのデータをとれるように
2回とったわけです(この作業はなんて言うんでしょうか?)

部屋をマス目上に区切ってそれぞれの地点をクラスとして、
正解と分類結果の位置の平面距離を誤差として扱っています

865 :デフォルトの名無しさん:2017/01/17(火) 01:40:17.43 ID:fnrDgeqA.net
>どういう原因が考えられるか
そもそもちゃんと上手くいく補償は何もないはず

866 :デフォルトの名無しさん:2017/01/17(火) 01:58:22.56 ID:tsbi2MJl.net
>>865
クロスバリデーションではうまくいってるからむしろ逆に疑問なのです
こういうことは往々にして起こるものなんでしょうか?
自作アプリケーションではなくWeka3を使ってるので、
クロスバリデーション時のデータの分割がおかしいとかいうことはないはずです
もしやと思い一応データの順序をバラバラにして読み込ませてみましたが、変わらないですし

867 :デフォルトの名無しさん:2017/01/17(火) 02:09:51.51 ID:4Zn+ZHnq.net
>>866
別に珍しくも何ともない
だからレスの反応も鈍い

868 :デフォルトの名無しさん:2017/01/17(火) 02:41:54.24 ID:6FN76xWU.net
全てが上手くいけば苦労しないよ

869 :デフォルトの名無しさん:2017/01/17(火) 06:25:04.80 ID:Upzxz6/t.net
>>864
前処理を追加してみるとか
正規化とか標準化とか中心化とか

誤差の分散がクラス分けの分散より大きいから正しく分類されてないということは言えるだろう

870 :デフォルトの名無しさん:2017/01/17(火) 06:59:26.60 ID:oG+VNPPp.net
あなたのいうクロスバリデーションが1週目と3周目のデータを対象にしたってことならおかしくないんじゃないかと
n週目、に区切るのが気持ち悪い
データが週で偏ってるんでしょ
全体をシャッフルしてクロスバリデーションするならわかるけど

871 :デフォルトの名無しさん:2017/01/17(火) 22:45:49.19 ID:fnrDgeqA.net
>一応データの順序をバラバラにして読み込ませてみましたが、変わらないですし

どういうことをしたの?
順序って何の順序?

872 :デフォルトの名無しさん:2017/01/17(火) 23:03:02.32 ID:NwjbzAqk.net
>>849
うわぁえげつねぇ、ググったら本当みたいね。もう tensorflow 1強で勝負にならねぇな…

873 :デフォルトの名無しさん:2017/01/17(火) 23:04:31.07 ID:CnW57jrJ.net
ミゲルがtensorflowのC#ラッパー書いてたなw

874 :デフォルトの名無しさん:2017/01/17(火) 23:13:45.71 ID:50N4tk+s.net
C# ラッパーは windowsプログラマに需要ありそう

875 :デフォルトの名無しさん:2017/01/17(火) 23:16:07.66 ID:50N4tk+s.net
kerasかTFかで悩む必要なくなるな
あくまでTF内の話しになるわけだ

876 :デフォルトの名無しさん:2017/01/17(火) 23:28:52.44 ID:AgXo0Iqi.net
tensorflow 1強になりそうだな。

877 :デフォルトの名無しさん:2017/01/17(火) 23:34:20.80 ID:2pYNMMxB.net
競争の激しいところでは資本力が強いところが勝つ
それだけのこと

878 :デフォルトの名無しさん:2017/01/17(火) 23:40:32.56 ID:rIfocs2Z.net
AWSの機械学習系のサービスは何使ってるんだろう
AmazonはJava好きだからSparkかな

879 :デフォルトの名無しさん:2017/01/17(火) 23:48:51.97 ID:NwjbzAqk.net
EMR には Spark 入ってるけどな、あくまで Hadoop エコシステムの一つとして

880 :デフォルトの名無しさん:2017/01/17(火) 23:50:47.76 ID:NwjbzAqk.net
>>877
真理ではあるが、MS のフレームワークは成功しているとは言えないから
やはりこの分野でのグーグルのブランド力もあるかと

881 :デフォルトの名無しさん:2017/01/17(火) 23:54:39.00 ID:Yq4yq7rY.net
AWSはJavaかC++で独自に自作してそう
DBMSをいくつも独自に内製したりとか意味不明な技術力があるんだから機械学習くらい楽勝だろ

882 :デフォルトの名無しさん:2017/01/18(水) 01:00:12.63 ID:A2sif1c9.net
和製Chainerがどこまで食い下がれるか

883 :デフォルトの名無しさん:2017/01/18(水) 01:01:26.05 ID:pJi8eRzq.net
>>867-871
ありがとうございます
そういうもんなんですかね
前処理・分散について調べてみます

順序というのは、極端な例ですが
AAABBBCCCDDDEEE(「A」はAに分類されるべきデータを表す)という15個のデータがあった場合、
これをそのまま5-foldに突っ込んだらAAA〜DDDで学習・EEEで検証みたいなことになったりしないかと思って
(もちろんちゃんとしたソフトでそんなことはないと思いますが、念のため)手動で15個のデータをバラバラにしたということです

884 :デフォルトの名無しさん:2017/01/18(水) 01:04:54.02 ID:fOnydPHH.net
>>896の意見が一番需要なんだけど

885 :デフォルトの名無しさん:2017/01/18(水) 01:05:21.33 ID:fOnydPHH.net
>>870

886 :デフォルトの名無しさん:2017/01/18(水) 01:07:42.22 ID:IyurpQq3.net
>>882
自分はかなりchainerを使ってきたが、もう全然食い下がれてないと思う。仕様変更が目立って、他人に勧めにくいし。
というか、Kerasまで取り込むならもう比べるのは無理

887 :デフォルトの名無しさん:2017/01/18(水) 01:15:48.89 ID:DkwTo2ZZ.net
仕事ならtensorflowを使うのがいいし、そうでないなら好きなの使えばいい。ただ、比較対象になりがちだった kerasを本当に吸収するなら確かに勝負あったわな

888 :デフォルトの名無しさん:2017/01/18(水) 01:19:44.53 ID:n+xYo+s2.net
しょうがないよ、>>877 が言及しているように企業力が違い過ぎるわw
もともと chainer ユーザの大半は日本人だし。
まぁ食い下がる可能性があるとしたら chainer よりも MS の cognitive tool だろうけど

889 :デフォルトの名無しさん:2017/01/18(水) 01:24:42.96 ID:9fl7TnA/.net
これからDL始めようと思ってるんだけど黙ってKeras使っとけばええの?

890 :デフォルトの名無しさん:2017/01/18(水) 01:32:26.30 ID:n+xYo+s2.net
>>889
今のところ Keras を使っておくのがベストじゃないかな、バックエンドは TensorFlow にして。
(バックエンドは Theano と TensorFlow が選べる。)
ドキュメントがいまいちなんだけど、日本語の技術ブログでも Keras 使いが増えてるからググれば何とかなると思う

891 :デフォルトの名無しさん:2017/01/18(水) 01:33:35.50 ID:IyurpQq3.net
>>889
たぶん一番現実的。やっておいて損はない

892 :デフォルトの名無しさん:2017/01/18(水) 04:07:21.46 ID:A2sif1c9.net
>>890>>891
了解👌

893 :デフォルトの名無しさん:2017/01/18(水) 07:58:42.28 ID:618y5kdV.net
kerasのtheano対応が悪くなるとしたら
theano潰しかと

894 :デフォルトの名無しさん:2017/01/18(水) 07:59:22.96 ID:OKslPlHa.net
keras開発陣営は吸収で猛反発しているから果たしてまとまるか?

895 :デフォルトの名無しさん:2017/01/18(水) 08:15:14.63 ID:cw6vafSX.net
まあ分裂するだろうな
Googleの要員がみんな引き揚げて先細りだろう

896 :デフォルトの名無しさん:2017/01/18(水) 08:19:13.69 ID:g5oyubLe.net
TFが勝手にKerasをマージするんであって別にプロジェクトが統合されるわけじゃないでしょ
まあGoogleメンバーはKerasから引き揚げるだろうから結果は同じだけど

897 :デフォルトの名無しさん:2017/01/18(水) 10:32:22.09 ID:s704hw/z.net
よくChainerは日本語のリファレンスが充実してるとか言われるけど、そんなの一体どこにあるん?

898 :デフォルトの名無しさん:2017/01/18(水) 10:41:29.81 ID:DybqNz24.net
ぶっちゃけ、人工知能関係の人って数学出来ないよねw

マンフォードとか例外はあるけど。

899 :デフォルトの名無しさん:2017/01/18(水) 11:44:32.15 ID:618y5kdV.net
Good news, Tensorflow chooses Keras!
https://github.com/fchollet/keras/issues/5050

900 :デフォルトの名無しさん:2017/01/18(水) 20:39:45.91 ID:/Pl9s4hM.net
日本語訳リファレンスが出てるのはkerasだけ

901 :デフォルトの名無しさん:2017/01/18(水) 20:40:54.22 ID:/Pl9s4hM.net
食い下がるとか発想が違うんだよな
googleは他社が追い上げてきたら常にちょっと上の技術を無料にして価値を暴落させる

902 :デフォルトの名無しさん:2017/01/18(水) 23:14:12.67 ID:iMqn5lIO.net
あまりに極端な質問&長文で申し訳ないのですが、教えてください

ある町で10代20代30代40代50代の男女各一人の計10人に年収を聞いた所、
男性は10代から順に211万、219万、231万、241万、249万、
女性は109万、119万、227万、141万、150万だったとします
見ての通り、1つの例外を除き、ほぼ法則性があります
しかし、これを性別2×年代5の10クラスの分類問題として学習すると、
228万円の人の性別と年収を推定すると30代の女性になってしまうと思います
そこで、まずは2クラスで性別を判定し、次にその性別の中で5クラスで年代を推定する、
2段階の推定方法を採用するとします
すると、まずは男性と推定され、その中で30代と「期待通りの」推定をすると思います

サンプルが少なすぎる、227万の30代女性がいる以上それが「データとしては正しい」
などと言ったツッコミはあるとは思いますが、このような段階を利用した推定方式は
1.見たことがある
2.見たことはないが、そういう考え方もなくはないと思う
3.ありえない、まったくもってナンセンス
どれでしょうか?

903 :デフォルトの名無しさん:2017/01/18(水) 23:19:41.02 ID:iMqn5lIO.net
連レスすみません
外れ値なんだから除けとかクラス分類じゃなくて回帰にしろとか
そういうツッコミもあるかもしれませんが、ありえないかありえなくはないか、お願いします

904 :デフォルトの名無しさん:2017/01/18(水) 23:19:49.31 ID:cw6vafSX.net
決定木分析でしょ
精度はともかく結果が理解しやすいのでヒジネスだとよく用いられる手法

905 :デフォルトの名無しさん:2017/01/18(水) 23:52:39.75 ID:9rq3F1kV.net
他クラス分類では普通の方法
SVMとかで1対多を段階的にやる手法とかある
ただ年収だけがパラメータでそれを推定するのは無理でしょ

906 :デフォルトの名無しさん:2017/01/18(水) 23:55:43.40 ID:MamR9lTx.net
>>901
それは何か分かるわ。他社というか一般人がキャッチアップしてきたら少し上の技術をぶら下げてくる感じ。
で、たくさんの人が釣られる。tensorflowも仕様は膨れ上がってきたけど、出し惜しみしてる感じがする

907 :デフォルトの名無しさん:2017/01/19(木) 00:07:58.44 ID:6UZ++j4E.net
Google様が本気で作ったら俺たちじゃ使いこなせないよw

908 :デフォルトの名無しさん:2017/01/19(木) 00:13:40.86 ID:V9XgfpVr.net
決定木分析って日本のセキュリティ学会wで
最近でも根強く見かけるよく見るお笑い系分析だから使わない方がいいよ

909 :デフォルトの名無しさん:2017/01/19(木) 00:14:10.34 ID:HN6Cj9Z/.net
若くて功名心のある傭兵が先頭に突っ込んでいって討ち死にして
老兵は一歩後ろから労せずついていくだけ

910 :デフォルトの名無しさん:2017/01/19(木) 00:17:42.53 ID:9PXg/P1I.net
>>908
決定木はデータの可視化手法の一つでしょ
予測に使うもんじゃない

911 :デフォルトの名無しさん:2017/01/19(木) 00:21:12.29 ID:HN6Cj9Z/.net
chainerの功績としてはgoogleにtensorflowを出させたってことだよ

912 :デフォルトの名無しさん:2017/01/19(木) 00:36:03.62 ID:pyZayEkl.net
>>911
客観視すればそういうことかもしれないね

913 :デフォルトの名無しさん:2017/01/19(木) 00:42:52.15 ID:HN6Cj9Z/.net
これからもgoogleに技術情報を開示させるためにchainerは頑張って欲しい

914 :デフォルトの名無しさん:2017/01/19(木) 00:47:04.94 ID:V9XgfpVr.net
>>911
そんな功績ないだろ他にもたくさんいいものがあったけど
車開発自体頓挫して天才がうまくPJに集約できただけだろう

915 :デフォルトの名無しさん:2017/01/19(木) 01:00:55.39 ID:WuPj/L0n.net
このスレって理論とかシステム構築?とか専門の人が多いのかな
実作業でデータ使ってこういうビジネスやってるみたいな話が聞いてみたい

916 :デフォルトの名無しさん:2017/01/19(木) 01:09:21.11 ID:VzgWotqb.net
>>913
いや、google を突っつく役目はもう終わってるよw 差がつき過ぎて google の目に入らない
残念だが、今のままでは歴史的には埋没するだけ

>>915
機械学習は環境構築だけじゃ意味がないから、データももちろん取り扱って実作業してるよ
ただ自前でデータを保持している場合は多分あまりなくて、
お客さんのデータが多いから匿名掲示版で迂闊に話しができないだけ

917 :デフォルトの名無しさん:2017/01/19(木) 01:13:07.04 ID:HN6Cj9Z/.net
画像識別するソフトつくって納品してる
終わり

実際、客の予算が限られてるから儲けが変わらん。
今までは不可能だった商売考えないと儲けは増えない

918 :デフォルトの名無しさん:2017/01/19(木) 05:14:09.24 ID:v6eTmRvb.net
>>911
その因果関係は見かけだけでは?
本当のことはGoogleの中の人しか判らない

919 :デフォルトの名無しさん:2017/01/19(木) 06:17:03.03 ID:fHfcI6WA.net
そんなことを言い始めたら、google の中の人だって上層部の人しか分からんわw

920 :デフォルトの名無しさん:2017/01/19(木) 06:19:17.48 ID:v6eTmRvb.net
>>919
そうだな
だから単なる希望的憶測でしかないな

921 :デフォルトの名無しさん:2017/01/19(木) 06:25:40.47 ID:VzgWotqb.net
まぁ「google に出させた」は希望的というか、ひいき目過ぎるだろうな
そういうタイミングだったとしか言いようがない

922 :デフォルトの名無しさん:2017/01/19(木) 06:42:23.05 ID:bxUvDjd6.net
theanoがあっただろ。。。

923 :デフォルトの名無しさん:2017/01/19(木) 06:44:18.61 ID:fHfcI6WA.net
caffe があったろw

924 :901:2017/01/19(木) 06:50:38.59 ID:svwhoAa+.net
>>904>>905>>908>>910
ありがとうございます
私自身機械学習は初心者で説明も下手だったとは思いますが、
大学の先生にそんなのは意味不明でやる価値がない(意訳)と言われてしまったものですから…w
今まで機械学習をブラックボックスで使ってましたが、
決定木分析というのを含め、中身をちょっと勉強してみようと思います

925 :デフォルトの名無しさん:2017/01/19(木) 08:00:28.54 ID:df9Spehw.net
torch のこともたまには思い出してあげて下さい

926 :デフォルトの名無しさん:2017/01/19(木) 09:26:25.00 ID:9PXg/P1I.net
>>902みたいな問題をやるなら、結局のところ目的は推定じゃなくて知識発見だろ?
学習手法はブラックボックスでもいいけど、少なくとも結果として得られたモデルの意味を理解できないと何の意味もないと思うぞ
その意味では決定木も悪くないが統計解析から真面目にやった方がいい

927 :デフォルトの名無しさん:2017/01/19(木) 21:25:50.12 ID:V9XgfpVr.net
>>926
推定でいいじゃろ
アンサンブルでランダムフォレスト取って年収の説明変数部分に特化して他の学習スタッキングすれば分類できるべ?

928 :デフォルトの名無しさん:2017/01/19(木) 21:26:41.24 ID:HN6Cj9Z/.net
研究者 アルゴリズムの開発
技術者 学習
ユーザー 使うだけ

わりと住み分け出来てきたな

929 :デフォルトの名無しさん:2017/01/19(木) 21:30:58.18 ID:snyfPmTW.net
学習て何すんの?
何処までの範囲?

930 :デフォルトの名無しさん:2017/01/19(木) 22:10:20.24 ID:tB9y33ui.net
>>927
知識としてのモデル自体の価値を忘れてはいけない
目的変数を望ましい方へ変化させるためのアクションをとることを目的とする場合、
人間にとって意味が理解できるモデルであることはとても重要

931 :デフォルトの名無しさん:2017/01/19(木) 22:12:29.94 ID:Mbx/4N0r.net
>>929
指導要領参照

932 :デフォルトの名無しさん:2017/01/19(木) 22:29:02.08 ID:ri/oCnx2.net
実験データのスペクトル解析にも普通に機械学習が使われるようになってきたよ。
自分も実験、シミュレーション屋さんなんで、
アルゴリズムの開発はよろしく。

933 :デフォルトの名無しさん:2017/01/19(木) 22:31:43.91 ID:Mbx/4N0r.net
馬鹿乙

934 :デフォルトの名無しさん:2017/01/19(木) 22:38:56.08 ID:irXhj7sG.net
アルゴリズムて学習のアルゴリズムくらいじゃね
新しい構造を巧く学習するために色々考えられたんだろうし

935 :デフォルトの名無しさん:2017/01/19(木) 22:51:52.71 ID:hdy+4jyN.net
今実験屋さんと共同研究しているとこ増えてきたしね。
natureなんかにも報告例あるし。

936 :デフォルトの名無しさん:2017/01/19(木) 22:58:02.47 ID:Mbx/4N0r.net
相手にされないのね

937 :デフォルトの名無しさん:2017/01/19(木) 23:38:23.38 ID:V9XgfpVr.net
実験屋は役に立たないってわかってきたから
最先端は抽象代数系の特異な純数学の人をだまして
連れてくるのが流行ってる

938 :デフォルトの名無しさん:2017/01/19(木) 23:54:44.18 ID:GXj94YsU.net
実験への適用はこれからって感じだけどな。
最近は実験で膨大なデータが取得されるから、
効率的な解析手法が求められてる。

939 :デフォルトの名無しさん:2017/01/20(金) 00:21:20.80 ID:9/re34ML.net
好みは人それぞれなんだから好きにすりゃいいじゃん
全員が全員同じセンスなんてあり得ないんだから
押し付けがましいのは良くないぞ

940 :デフォルトの名無しさん:2017/01/20(金) 00:22:41.52 ID:u6rFaF99.net
すまんな中途半端な誤爆した

941 :デフォルトの名無しさん:2017/01/20(金) 21:27:29.67 ID:qOWL1VY/.net
学習は既存のネットワークで十分な結果得られてるし
これからは特徴抽出の方が重要になってくるんじゃないの

942 :デフォルトの名無しさん:2017/01/20(金) 22:34:01.83 ID:K+Z7+eQr.net
やっぱ芸術だよな
芸術こそ人を幸せな気分にし感動させる

943 :デフォルトの名無しさん:2017/01/20(金) 22:37:11.42 ID:A0acoxAd.net
新スレ立ててそこでやれよ

944 :デフォルトの名無しさん:2017/01/20(金) 22:41:28.61 ID:A0acoxAd.net
>>942
誘導
http://mint.2ch.net/gallery/

945 :デフォルトの名無しさん:2017/01/21(土) 09:59:21.26 ID:tC93jdQ3.net
人生はできるかできないかじゃない
やるかやらないかだ

946 :デフォルトの名無しさん:2017/01/21(土) 10:00:57.60 ID:LFvCw0cQ.net
あんたなにやってんのよ、まじめに働いてよw

947 :デフォルトの名無しさん:2017/01/21(土) 10:42:51.96 ID:6/ot5eli.net
ところでセキュリティフォントにAI組み込むって話ってうま味ありそう?

948 :デフォルトの名無しさん:2017/01/21(土) 11:10:41.77 ID:Poucv/rB.net
優秀な詐欺営業がいて自治体とコネクションがあるなら

949 :デフォルトの名無しさん:2017/01/21(土) 11:19:28.45 ID:VaR4rSpq.net
yes we can

950 :デフォルトの名無しさん:2017/01/21(土) 11:37:07.48 ID:jSHUwZFF.net
失敗したPDFだとこんな風になるな
コピペすると文字化けするような

951 :テンプレ 1/3:2017/01/21(土) 11:39:30.60 ID:nFM+9kDb.net
mail: sageteoff
title: 【統計分析】機械学習・データマイニング12

機械学習とデータマイニングについて何でもいいので語れ
人工知能考察は未来技術板の技術的特異点スレで語れ

■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76

■前スレ
【統計分析】機械学習・データマイニング11
http://echo.2ch.net/test/read.cgi/tech/1482227795/

952 :テンプレ 2/3:2017/01/21(土) 11:40:02.25 ID:nFM+9kDb.net
■過去スレ
【統計分析】機械学習・データマイニング【集合知】
http://toro.2ch.net/test/read.cgi/tech/1286200810/
[統計分析]機械学習・データマイニング[集合知] 2
http://toro.2ch.net/test/read.cgi/tech/1342812444/
【統計分析】機械学習・データマイニング3
http://peace.2ch.net/test/read.cgi/tech/1350121405/
【統計分析】機械学習・データマイニング4
http://peace.2ch.net/test/read.cgi/tech/1403603502/
【統計分析】機械学習・データマイニング5
http://peace.2ch.net/test/read.cgi/tech/1439302488/
【統計分析】機械学習・データマイニング6
http://echo.2ch.net/test/read.cgi/tech/1455651930/
【統計分析】機械学習・データマイニング7
http://echo.2ch.net/test/read.cgi/tech/1460535528/
【統計分析】機械学習・データマイニング8
http://echo.2ch.net/test/read.cgi/tech/1464586095/
【統計分析】機械学習・データマイニング9
http://echo.2ch.net/test/read.cgi/tech/1470037752/
【統計分析】機械学習・データマイニング10
http://echo.2ch.net/test/read.cgi/tech/1479498503/
【統計分析】機械学習・データマイニング11
http://echo.2ch.net/test/read.cgi/tech/1482227795/

953 :テンプレ 3/3:2017/01/21(土) 11:40:36.38 ID:nFM+9kDb.net
■関連スレ
人工知能・機械学習のスレッド@数学板
http://rio2016.2ch.net/test/read.cgi/math/1467700762/
パーセプトロン
http://rio2016.2ch.net/test/read.cgi/informatics/1330911251/
人工知能ディープラーニング機械学習のための数学
http://echo.2ch.net/test/read.cgi/tech/1482808144/
Deep learning
http://echo.2ch.net/test/read.cgi/tech/1387960741/
ディープラーニング
http://echo.2ch.net/test/read.cgi/tech/1457792560/
自然言語処理スレッド その4
http://echo.2ch.net/test/read.cgi/tech/1401741600/

■人工知能考察スレ
(強いAI)技術的特異点/シンギュラリティ(知能増幅) 54
http://rio2016.2ch.net/test/read.cgi/future/1484485942/
(AI)技術的特異点と政治・経済・社会等(BI) 9
http://rio2016.2ch.net/test/read.cgi/future/1484578214/
(情報科学)技術的特異点と科学・技術等 1
http://rio2016.2ch.net/test/read.cgi/future/1427220599/
人工知能
http://rio2016.2ch.net/test/read.cgi/future/1286353655/
人工知能で自我・魂が作れるか
http://rio2016.2ch.net/test/read.cgi/future/1476229483/
こころがあるロボットは作れるのか
http://rio2016.2ch.net/test/read.cgi/robot/1287505889/

954 :デフォルトの名無しさん:2017/01/21(土) 11:51:59.19 ID:LFvCw0cQ.net
spam 1.0

955 :デフォルトの名無しさん:2017/01/21(土) 12:27:32.25 ID:L4FGtyIc.net
セキュリティフォントにはもうAI組み込まれてるのに?
流行りのAI詐欺で元武雄市長とともにやったるんかいw

956 :デフォルトの名無しさん:2017/01/21(土) 12:49:07.64 ID:jSHUwZFF.net
SFCじゃ無理だな

957 :デフォルトの名無しさん:2017/01/21(土) 12:55:59.52 ID:LFvCw0cQ.net
Wも無理

958 :デフォルトの名無しさん:2017/01/21(土) 13:36:04.83 ID:yR+dIRXC.net
【人工知能】AIが作成したAIプログラムの性能が人間が開発した製品を上回る…AIがAIをプログラムする時代が到来
http://dai ly.2c h.n et/test/read.cgi/newsplus/1484899117/

959 :デフォルトの名無しさん:2017/01/21(土) 13:52:35.29 ID:VaR4rSpq.net
俺は技術的特異点は来ず、シグモイド関数になるとみている

960 :デフォルトの名無しさん:2017/01/21(土) 14:40:03.58 ID:LFvCw0cQ.net
Are you brain damaged?

961 :デフォルトの名無しさん:2017/01/21(土) 15:22:09.53 ID:+/5BUcoL.net
中学レベルの英語ができないとか、日本の将来は明るいな

962 :デフォルトの名無しさん:2017/01/21(土) 15:53:33.38 ID:mUblnKuo.net
>>942 ピカソのゲルニカや岡本太郎の爆発する藝術はどうなの?

963 :デフォルトの名無しさん:2017/01/21(土) 16:29:19.91 ID:qJj38k1e.net
my explorer has been getting explosion everyday

964 :デフォルトの名無しさん:2017/01/21(土) 16:44:25.62 ID:LFvCw0cQ.net
I recommend to you clean install.

965 :デフォルトの名無しさん:2017/01/21(土) 16:52:50.93 ID:f43Hfk5I.net
まだAIの英語力の方がマシみたいだな

966 :デフォルトの名無しさん:2017/01/21(土) 17:03:55.21 ID:pK1RKLHe.net
I recommend to you re-install cleanly up.

967 :デフォルトの名無しさん:2017/01/21(土) 17:20:21.17 ID:6/ot5eli.net
英語は小6ぐらいで問題ないぞ
なろうと思えば大統領にもなれるぞ

968 :デフォルトの名無しさん:2017/01/21(土) 17:52:19.28 ID:LFvCw0cQ.net
トランプの演説か、大統領の英語は分かりやすくしてる面もあるが

969 :デフォルトの名無しさん:2017/01/21(土) 17:53:33.95 ID:sMDuy5hJ.net
> 英語は小6ぐらいで問題ないぞ
それはどこの国でどういう環境で育った小6の話だ?

970 :デフォルトの名無しさん:2017/01/21(土) 17:53:49.82 ID:LFvCw0cQ.net
ドナルドダッグというアニメがあったな

971 :デフォルトの名無しさん:2017/01/21(土) 17:59:10.13 ID:sMDuy5hJ.net
ドナルドダックな

972 :デフォルトの名無しさん:2017/01/21(土) 18:30:24.42 ID:qJj38k1e.net
BIGガメラ

973 :デフォルトの名無しさん:2017/01/21(土) 18:47:20.72 ID:EklQ/C0C.net
>>897
公式は英語のみで日本語の解説はユーザーや開発者が勝手に使って
メモ帳のような内容をブログに掲載しているだけだね。
未だに日本語レファレンスが無いところをみると
chainer側としては目標は全世界がターゲットであって
日本にはこだわらない、日本語のアドバンテージなんて注目してなかっただろうし。

974 :デフォルトの名無しさん:2017/01/21(土) 19:27:49.38 ID:6wj0KFcw.net
結果論だけどその戦略が裏目に出たかな。
ほとんど日本人しか使ってないのにリファレンスは英語だけというマヌケな話しw
しかも英語が微妙に下手

975 :デフォルトの名無しさん:2017/01/21(土) 19:38:39.05 ID:+b15DBPX.net
日本だけで使われることは本意じゃないのだから別にいいんじゃね
ただ、日本語文書が豊富という煽りには最初、困惑したが

976 :デフォルトの名無しさん:2017/01/21(土) 19:40:50.08 ID:EIHcSVAK.net
戦略というより意識高い系のプライドだろ
それが滲み出てるから余計に敬遠された

977 :デフォルトの名無しさん:2017/01/21(土) 19:43:45.68 ID:6wj0KFcw.net
>>976
あぁ、確かにそれはあるかもね w

978 :デフォルトの名無しさん:2017/01/21(土) 19:54:50.63 ID:o/kJNhEY.net
>>958
意味がわからんニュース
記者自身がわかってない

979 :デフォルトの名無しさん:2017/01/21(土) 19:57:03.98 ID:o/kJNhEY.net
専門外の英単語なんてチンプンカンプンなんだからみんなkeras使うよ
和訳マニュアルあるしね

980 :デフォルトの名無しさん:2017/01/21(土) 20:09:31.12 ID:Rm2+nZAP.net
@apg4p@g

981 :古賀慣れないわこ:2017/01/21(土) 20:12:08.24 ID:Rm2+nZAP.net
6M"湯な日なぬき行こねこなくきなか奴婢握れるのにや…やんはたまなタソいるわけには。身体?からの?戻るあ

982 :デフォルトの名無しさん:2017/01/21(土) 20:33:53.57 ID:6/ot5eli.net
chainerの終焉は近い?

983 :デフォルトの名無しさん:2017/01/21(土) 23:29:56.25 ID:nFM+9kDb.net
【統計分析】機械学習・データマイニング12
http://echo.2ch.net/test/read.cgi/tech/1485008808/

984 :デフォルトの名無しさん:2017/01/22(日) 00:07:36.47 ID:0SIwiLkg.net
>>982
そもそも始まってないし。一部の人の声が大きいだけ。
日本語ドキュメントが充実しているなんて評判は誰がどんな目的でばらまいたのやらw

985 :デフォルトの名無しさん:2017/01/22(日) 00:09:23.28 ID:0SIwiLkg.net
>>979
誰が訳してくれたのか知らないけど、keras ドキュメントの日本語訳は
わりと質の高い翻訳で驚いた

986 :デフォルトの名無しさん:2017/01/22(日) 00:15:00.44 ID:nuvRNJT/.net
>>982
韓流ブームみたいなもの

987 :デフォルトの名無しさん:2017/01/22(日) 00:29:21.93 ID:9XyKcr2h.net
ごり押しってことか

988 :デフォルトの名無しさん:2017/01/22(日) 00:36:10.59 ID:xGt84N2n.net
深層学習をウェブブラウザ上で学習できる「Chainer Playground」の無償公開について
https://www.preferred-networks.jp/ja/news/chainer-playground
Chainer Playground β
https://play.chainer.org/

Chainer Playgroundのチュートリアルコンテンツ執筆も遅いから、
Chainer日本語リファレンスは書く暇がないだけではないだろうか。
でもChainerはPythonで完結していて隅々まで理解するのが楽だ。
Deep Learningをきちんと学ぶための道具としては優れていると思う。

989 :デフォルトの名無しさん:2017/01/22(日) 00:38:21.22 ID:ysHrweuP.net
>>973
だからダメなんだよ
日本で生まれの日本育ちで日本在住のくせして何故か母国語の情報をサポートしない
結局外国どころか日本ですら使って貰えなくなる
そもそも外国ならこんなことまずありえんぞ

990 :デフォルトの名無しさん:2017/01/22(日) 00:49:02.95 ID:IGVJPosd.net
>>988
それって TF playground の猿真似かよw
それに日本語文書の話しは一年前からあるぞ、どんだけやる気ないのよw

991 :デフォルトの名無しさん:2017/01/22(日) 00:56:00.71 ID:o50n5oHz.net
本当に playgroundかよ、いまだにtensorflowを意識してるんだな

992 :デフォルトの名無しさん:2017/01/22(日) 00:59:41.94 ID:o50n5oHz.net
>>973
仕様が変わりまくって理解するのが大変だよ

993 :デフォルトの名無しさん:2017/01/22(日) 01:14:28.50 ID:Tpb271yH.net
>>983

994 :デフォルトの名無しさん:2017/01/22(日) 01:28:20.90 ID:xGt84N2n.net
>>992
後から集まった人達が離れた理由は日本語リファレンスよりこちらだろう。
初期に飛びついた人は英語リファレンスを読み日本語で解説記事を書いた。
仕様変更が後方互換ならエコシステムが育つけどChainerはそうではない。
昔の解説記事が使えなくなり初級者が混乱してChainerから離れる。
昔のRubyのように仕様変更を熱心に追いかける取り巻きだけが残る。

995 :デフォルトの名無しさん:2017/01/22(日) 08:58:55.55 ID:9XyKcr2h.net
Chainerは計算グラフ作るところ美しくないから
使いたくないんだよなぁ

996 :デフォルトの名無しさん:2017/01/22(日) 09:51:26.91 ID:phG9hQKS.net
サイトは英語のくせにコミュニティ活動の方は日本語ベースなんだよな
俺はお前たちとは違うと主張しながら結局日本の村社会を捨てられない
典型的な日本の意識高い系だよね

997 :デフォルトの名無しさん:2017/01/22(日) 10:18:49.67 ID:dPHV2Nvz.net
日本語で書こうが英語で書こうが文句が出る
だったら作り手の好きなようにするしかないだろうが

998 :デフォルトの名無しさん:2017/01/22(日) 11:30:27.45 ID:+3SpEjtP.net
中途半端って言われてるのw

999 :デフォルトの名無しさん:2017/01/22(日) 11:45:17.67 ID:0VKyKg+k.net
ほれほれ。

http://www.datasciencecentral.com/profiles/blogs/book-python-data-science-handbook

1000 :デフォルトの名無しさん:2017/01/22(日) 11:53:03.98 ID:mrTIs+uV.net
Rubyなんかもジャップは日本語コミュニティに閉じ籠っていると批判されてるらしいし
国産のOSSが世界に広まらない最大の原因はドキュメント云々じゃなくてそこだろうな

1001 :デフォルトの名無しさん:2017/01/22(日) 12:02:36.47 ID:cgPdpdSx.net
cheeplearning

総レス数 1001
221 KB
掲示板に戻る 全部 前100 次100 最新50
read.cgi ver 2014.07.20.01.SC 2014/07/20 D ★