TOP カテ一覧 スレ一覧 100〜終まで 2ch元 削除依頼
☆★Java質問・相談スレッド181★★
「コンパイラ・スクリプトエンジン」相談室16
ふらっと C#,C♯,C#(初心者用) Part144
Pythonのお勉強 Part57
C/C++以外の推薦図書/必読書のためのスレッド
Java入門・初心者質問スレ Part.10
プログラミング言語 Scala 11冊目
スレを勃てるまでもないC/C++の質問はここで 25 [隔離病棟]
文字コード総合スレ Part11
【消しゴム】MONOを使ってみるスレ4【じゃない】

Deep learning


1 :2013/12/25 〜 最終レス :2019/02/23
http://en.wikipedia.org/wiki/Deep_learning
wikiで意味するそれについて。
wiki以外の定義はお断り。

2 :
人工知能ネタ

3 :
>It typically uses artificial neural networks.
ってことです、これに反論する人はこないでください。

4 :
Deep learning 用語集
http://staff.aist.go.jp/y-ichisugi/rapid-memo/deep-learning.html
自然言語処理のためのDeep Learning
http://www.slideshare.net/yutakikuchi927/deep-learning-26647407

5 :
>>4
作者乙

6 :
このスレッドは天才チンパンジー「アイちゃん」が
言語訓練のために立てたものです。
アイと研究員とのやり取りに利用するスレッドなので、
関係者以外は書きこまないで下さい。
                  京都大学霊長類研究所

7 :
pre-trainingって、どういうデータでやるの?
学習に使うデータ?
ランダムなデータ?
基本図形のようなデータ?(画像認識なら)

8 :
Deep learning
って、噂と論文の評価ばかりで反証した例が1つもない。
作ったと言い張るだけで、そのシステムが再利用できていない。
核心部分を隠蔽することで秘密だからという理屈で技術になっていない。
技術というのは誰でも再現して再利用できるものを言う。
それを除いた部分が噂とデマで広がっているだけな。

9 :
おまえらも本物しらずに他の翻訳みたいな解説本を売れば
いまなら高額で売れるぞ。

10 :
Hintonの書いたWebSite読めないような人がDeep learningつかう機会あるのか?

11 :
>>10
おまえバカだろ。

12 :
>>11
相手にするな。勝手な思い込みと決め付けで何もできないからストレスを
発散しているだけだよ。

13 :
matlabのコード置いてあるのに反証って、どうやるの?
自分で別のデータ用意すりゃ良いだけじゃないの?

14 :
ついでに、この手のアルゴリズムって、
わざわざ自分でフルスクラッチで書かなくても誰かがOSSで実装しちゃう

15 :
スパースコーディングみたく基底あつめてんだろ

16 :
やる人はやる、無能は口だけで妬みだす、
定義とか具体性とかでいくら主張しても結果だせなければ技術者としてクズ以下なのよ
無能よばわりされたくなければ2chでうだうだいってないで手を動かせ頭を使え。
俺スゲーしたいなら2chで言うなボケアホ、自分のリアルな周りに納得させろ

17 :
>>16
むしろ気になるのは、何で貴方みたいなのが、2chを読んだり書いたりするのかなって

18 :
例えば、研究室の自分の周りの環境が半日以上YouTubeでアニメを見るだけだったり、
指導教官の腐ったキテレツみたいなのが、瑣末な結果に因縁をつけて進捗しないだけでなく、
バグだと決めつけて次のステップに進めず、おまけにゼミでの指導がGNUPlotの色合いが悪いとか
線が細いみたいに研究と全く関係のない戯言で、学費泥棒みたいな環境に居たら、どうしたらいいわけ?

19 :
任意性度演算なにそれって人が教授やってるかと思うと反吐がでるよ
あんな奴、クビになればいいのに

20 :
>>17
必要な水準のはるか下か、最前線でオマエラより数段上にいるかの2択。

21 :
他人が引いた線路の上だけで線路から脱線しないようにしている有能さは
日勤教育の成果だな、JRは偉いわ。

22 :
※ただし、Railsを除く

23 :
技術とか真似することで始まるんだよ、だけど真似しかできないって
無力すぎる

24 :
未だに連想記憶モデルみたいなアルゴリズムに
ノイズを入れて復元するだけの論文かいてるアホ教授いるだろ
あいつらクビになんねーかな

25 :
教授にも成れない奴ってどんだけ無能なの?

26 :
>>24
おまえバカだろwwww

27 :
>>25
大学に金払うバカバカしさを悟ったところで卒業するんじゃないの?
それとも高卒?

28 :
>>27
>大学に金払うバカバカ
ありえんw
どんだけ貧乏なの?
寄付ぐらいしろよ。

29 :
>>28
Youtubeやスライドシェアに上がってる機械学習の資料を見た瞬間に
大学へ行くバカバカしさを悟ったよ。
大学教授のボンクラどもに募金するなら、そこらのOSSに寄付した方がマシ

30 :
資料の表面的な意味しか理解できない奴にはゴミ扱いなんだろうな。
それが超えられない壁を作っているわけで。

31 :
ばーか。こんなものは深く理解したところでゴミだ
5〜10年後に、DeepLearning以上のアルゴリズムが出来ているのは確実で、
DeepLearning自体のライブラリがOSSで出来上がる

32 :
性能が良いって理由で飛びつくヤツは本物のアホ
vc++でゲームプログラマ級のプログラミングスキルが無ければ触らない方が良い

33 :
HintonがGoogleに雇われている間に、新しい学習アルゴリズムを開発したら
その知的財産権は誰のものになるんだろう

34 :
http://recode.net/2014/01/27/more-on-deepmind-ai-startup-to-work-directly-with-googles-search-team/

35 :
学生時代に読んだ論文の著者がFacebookやGoogleで働いてるのを見ると、
もっと論文を読み込んでおけば良かったって、とても損した気分になる
やっぱり、あれをゴミ扱いしていた俺の指導教官がアホなのだ

36 :
ttp://grey.colorado.edu/emergent/index.php/Main_Page

37 :
Baidu研究所のDeep Speech(DeepLearningを使った音声認識)
http://usa.baidu.com/deep-speech-lessons-from-deep-learning/

DRNN使ってるけどさ、あれって言語モデルで使う場合、
現時点の入力単語に対して、次来る単語を予測するモデルじゃなかったっけ?
文献見ると、1つのニューラルで、音響モデルから言語モデルまで全部任せちゃうって書いてるよ。
どうやってんだ。

しかも、RNNの場合、入力と出力の数をあわせなければいけない。
合わせるにしたって、入力波形のアライメントというかサイズってどうやって特定してるんだろ?
その音素区切りをやってる事前処理の方が気になるよ。

38 :
ConvolutionalNeuralNetworlの
畳み込みレイヤーの3Dとか2Dってどういう意味?
多分、俺は2Dしか知らないと思う。
フィルタにかけるテンソルの単位が何枚にも重ねて一度に処理するから速いってだけ?

39 :
>>38
cuDNNの話?
それであってるけど、3DはFP16対応やら最適化やら不完全で、
nVIDIAによると現状3Dはパフォーマンスでないから、2Dでやるのが吉。
複数画像を1枚にまとめてミニバッチ処理にするとよいよ。

40 :
Tensorにするのと、ミニバッチにするのの違いは?
どちらも複数の画像をまとめる感じだよね。
上に重ねるか、横に並べるかの違いのイメージ。
特性とかに違いとかありますか?

41 :
J-wave に松尾豊

42 :
松尾「おはようモーニング」www

43 :
ここまでほとんど有益な情報無しとか終わってんな
日本の知性の総本山である2chでこれじゃあな
DQNやろうぜ

44 :
つい5〜6年前までは、ニューラルなんて過去のテクノロジ・・・っていう研究者が殆どだった。
そもそも、原因と結果がはっきりしないアルゴリズムなんだし、精度でなければ研究的にはただのゴミ。
理論を詰めることすら出来ない。
大半の人の中では、何か放り込んだら何かしら結果が出るってものだったしな。

45 :
>>43
情報持ってる人は、外に漏らすメリットないからな。
今まともに実装できる人は、自分で開発して売却すれば億単位の利益が入ってくるドル箱なんだし。
友人も、DeepLearning系やってる人は、Googleとかにガンガン青田買いされてとんでもない報酬貰ってる。
そりゃ、情報は独占するだろ普通に。

今のWebは情報持ってないけど興味ある人達が、
ちょこっとCaffeやpylern使って、その設定を公開してるだけの状態。

46 :
万能じゃないことにまだ気づいていないバカがいるから

47 :
万能である必要は無いのだが
勘違いしてる奴がいるな

48 :
deep learningの本スレってここですか?
理系板回ってみたけど見つかんなかった

49 :
零和有限確定完全情報ゲームのAIを作るとして、
定石や手筋、上級者の棋譜といったものがない場合、
どのような学習方法が考えられるでしょうか。

50 :
教師なし学習

51 :
教師無し学習っていっても具体的にどうすんのよ

52 :
逆に教師あり学習ならできるんじゃね?ゲームを通じての各局面に対する着手の組を
入力にして勝敗を出力にすれば。
局面がごく小さいゲームじゃないと収束しなさそうだけど。

53 :
勝ったら褒める

54 :
ゲームだと勝った局にも悪い手があったり、負けた局にもいい手があったりして、
正しく学習するのがむずかしいとおもってます。

55 :
ディープラーニングで必要な教師データ数の指針をまとめてるような資料ない?

56 :
>>54
そりゃ簡単だったら囲碁はとっくに人間に勝ってるよ
あ、囲碁は完全情報ではないか

57 :
ディープラーニング
https://www.youtube.com/watch?v=JGaHwOubY4Q

58 :
http://www.kdnuggets.com/2015/11/google-tensorflow-deep-learning-disappoints.html

59 :
deep learningを試行、実行、検証、、、実用への難しさ。

・そもそも適切な能力を計算機が用意できない。
・適切な計算機を、仕様に沿って実装し試行するために必要な資料が無い。
・お金を出せる組織が、人員と、機材、環境津繰りに関心を持たせる動機付けが必要。

60 :
tensorflow使ってるやついる?

61 :
使おうとして挫折した。

62 :
なんで?

63 :
APIがどんなものあるかとかどう使うのかとか裏で何やってるかとかよくわからんかった。

チュートリアルの最初のほう動かすだけで精いっぱいだった。
手書きの数字認識とかいうやつ?

俺の頭じゃとても応用まで行きそうにない。

俺がやりたいことやろうとするとデータも自前で用意する必要あったし。

64 :
まあ僕もディープラーニングの本読み始めたところでちんぷんかんぷんなわけだけどw

65 :
とりあえず環境作ってTensorFlowいれてチュートリアルが動くのは確認した。

66 :
おめ

67 :
晩飯は鯖味噌の缶詰と納豆卵ごはんとポップコーン

68 :
誤爆

69 :
>>66 R
http://i-manko.com/wp-content/uploads/manko_0146.jpg

70 :
conv3dって見たことないんだが、三次元の畳み込みって需要ないんだろうか?

71 :
>>70
あるよ
動画と、ct mri なんかのボリュームデータで使われてる
動画はリカレントが多いけど

72 :
>>71
オススメのconv3dできるライブラリとかあります?

73 :
>>72
theano で使えるって聞いたことあるけど、chainer で、自前で書いた

74 :
DQNをマルチエージェントでやってる奴おる?

75 :
ChainerってGeforce使ってないと使えないの?

76 :
gpuで動かすならnvidiaじゃないとダメ
amdでは動かない

cpuだけでも動くよ

77 :
>>76
thx
たしかにCPUだけでも動くけど、CUDAのインストールは必須なんだね

78 :
いや確か必要なかったよ

79 :
TensorFlowでいいわやっぱ
これからの主流はTensorFlowでしょやっぱ

80 :
二種類の画像で教師ありの学習をさせて画像を変換するネットワークを作ってみたいのですが参考にする論文の検索ワードが思いつきません
何か良いものがあれば紹介していただけないでしょうか

81 :
ごめんその説明はちょっとわからないよ
変換ってどう変換したいの?
モーフィングがしたいってこと?

82 :
>>81
分かりにくい表現で申し訳ないです。
画像を必要な領域と不要な領域に分けて不要な部分を黒塗りにするとか、
点がたくさん打ってある画像からその点を点電荷と見なしてポテンシャルのマップを出すとか、
ポテンシャルのマップからそのポテンシャルのマップ上で自由に運動する粒子の存在確率マップを出すとかの類の変換がしたいです

83 :
>>82
深層生成モデル?
http://qiita.com/masasora/items/0da970dd2b07f91d1d08

84 :
>>82
そういう処理なら既存の画像処理のアルゴリズムで十分実現できるのでは?
ニューラルネットワーク使うまでもないんじゃないの

85 :
>>83
まだこれの全容を掴めておらず、何だか近いような違うような気がします。本腰を入れて調べてみます。
大変参考になりました。ありがとうございます

>>84
実は上であげたような類の変換を教師あり学習で覚えさせたいのです
もしそのようなアルゴリズムがあれば教えていただければありがたいです

86 :
>>84
必要か必要でないかは学習でやらないと。

87 :
なんでmnistやるときはピクセルの値を0〜1にしないとうまく学習できないんでしょうか?

88 :
>>87
学習データの圧縮の影響じゃないの?
カラー画像扱うより2値画像の方がデータ量少ない。
しかもその画像を万とか億単位で学習させなきゃなんない。その結果を使って認識してる。

どうしてもカラー扱いたいなら、学習データからrgbの3ファイルに分解して3原色毎の学習させて、上位段を3原色の認識結果を更に学習させたらいいんじゃね?

これで信号機の配置順に関係なく正確に判別出来ると思うけどなぁ。色判別必要な認識からちょっぴりエスパーしてみたw

89 :
質問者も回答者もワケわかってなくて失笑
mnistすら回したことない人がこのスレにいるのも不思議
質問者が言ってるのは二値ではなく最小0最大1のこと

別に元データのように256段階でも精度はでるが、
使ってるサンプルプログラムが0から1を受け入れるように書かれてるだけの話
大方chainerあたりなんだろうけど

90 :
mnistにはそもそもカラーデータなんて無い
グレースケール256段階の手書き文字
ここが2chでよかったね
mnistのデータセットの仕様知らないのは機械学習を知らないのと同義

91 :
0..1の範囲だと扱いやすいから、そうしてるだけっていう

92 :
>>89
>>91
kerasの畳み込みニューラルネットをjuliaから呼び出した時の話なんですけど、255で割るのを忘れて実行すると全く学習できなくなってしまったんです。255で割ったらすんなり学習しました。
今指摘されてPythonからの呼び出しで255で割らずに実行したら割った時より学習が遅いものの、たしかに学習しているのを確認しました。
なんだかよくわからなくなってきたのでもう一度コードを確認してみます。ありがとうございました。

93 :
「慶應ミスコン中止」の陰に1年生女子「集団強姦」 加害学生を直撃!
週刊文春 10月11日(火)18時1分配信
http://zasshi.news.yahoo.co.jp/article?a=20161011-00006659-sbunshun-soci

「慶應ミスコン中止」の陰に1年生女子「集団強姦」 加害学生を直撃!
事件現場
 10月4日、“女子アナの登竜門”とも称される「ミス慶應コンテスト」の中止と、同コンテストを企画・運営する公認学生団体「広告学研究会」(以下「広研」)の解散が発表された。
 慶應大学側は、「告示文」においてその理由を「未成年飲酒」によるものとだけ説明したが、小誌取材により、大学側が明かさなかった「広研」の男子学生が引き起こした重大な事件が明らかになった。
 事件が起きたのは9月2日、現場となったのは、神奈川県葉山町内にある広研の「合宿所」だった。事件の全貌を知る広研所属の学生が語る。
「この日は、広研が夏の間に運営している海の家の撤収を行う作業のため、6人の男子学生が合宿所に泊まっていました。作業終了後、
酒を飲むことになり、呼び出されたのが6人と顔見知りだった1年生のA子さんです」
 そして深夜、男子学生たちは酒で意識のなくなったA子さんに襲いかかったのである。しかも、あろうことか、その様子を別の学生が撮影し、実況まで行っていたという。
 男子学生の一人は小誌の直撃に対して最初は偽名を名乗ったが、「何も答えられないです」と言いながら、本人であることを認めた。
「謝罪の気持ちは本当に……。時が来たら連絡します」と言い残すのが精一杯だった。
 一方でA子さんの母親は、小誌取材に対して、警察に被害届を提出したことを認めた。
 上記事実の確認を慶應大学に求めたところ、「今回の解散命令の基礎になった事実は告示文に記載されているとおりです。なお、
今回の処分は、関係者に複数回にわたる事情聴取を行う等、大学として可能な限りの調査を行ったもので、適正なものと認識しております」との回答があった。

 詳細は、10月13日発売の「週刊文春」10月20日号で報じている。

<週刊文春2016年10月20日号『スクープ速報』より>

http://i1.wp.com/media.sairilab.com/wp-content/uploads/2016/10/keioumi3_4.jpg?w=650

またチョーセンジンか。 👀
Rock54: Caution(BBR-MD5:0be15ced7fbdb9fdb4d0ce1929c1b82f)


94 :
画像識別にはCNNだそうですね。

動画識別で、時間による画像の変化量で、識別(Classification)したい場合には、どうするのでしょうか。
CNNでできるのでしょうか。

95 :
>>94
何の変化量?

96 :
生体組織を動画でとって、
乾燥の仕方、
乾燥しやすい乾燥しにくい、とか、水分や油分足りてる足りない、
を分類したいです。

97 :
>>96
従来から画像処理でやられてきたことなんでしょうか?使われてきた特徴量とかの知見なしにいきなりCNNはかえって遠回りかも?

98 :
従来の画像処理がイマイチだったのでDNN、という流れです。

99 :
オプティカルフローで1枚にしてCNNする
か、
複数画像を3D CNNする
か、
といったところなのでしょうか。

100 :
質問です:

画像データを、教師なし学習でクラスタリングしたいと思っています。

機械学習〜>Deep Learningの流れで、
教師なし学習よりも教師あり学習が主流になってきっぽいのですが、
前述のDeep Learningで画像データをクラスタリングするのは、どうやるのでしょうか?

101 :
>>100
いろいろあるけど、autoencoder 使って、その後クラスタリングとか

102 :
>autoencoder
って、
教師ありなんですか、教師なしなんですか?

自分あるサイトで教師なしだと思ってたら、別サイトだと教師ありとなってたり、
やはり基礎が無いといろいろと難しいですね。

103 :
それ自動生成した文章?
生成器自作したならすごいね

104 :
うお、俺のレスもおかしくなってる
すRっちの環境の不具合みたいだ

105 :
教師ありとも教師なしとも言えるな

106 :
kwsk、kwsk。

実はAutoencoderの教師あり学習サンプルで勉強していたのですが、本当は教師なしのクラスタリングが欲しくて。

それも単なる機械学習のクラスタリングじゃなくて、DNN的にデータ側から分類を発見、みたいな感じで。

107 :
わかったから本でも買って勉強しなさい

108 :
だな
もし答えても、その答えだけでは絶対理解できないはず

109 :
本は10冊程度読める状況なうえ、
自費でゼロから作る〜
も買いましたよ。
Kindleのみの本も持ってます。

110 :
本から答えを探しなさいよ
それがいい

111 :
つ [d] >>110

112 :
これって、高校生の数学程度だと、勉強するのはやっぱりそうとう無理でしょうか?
秋葉原の橋の近くの本屋さんでパラパラめくってみたのですけど、動かすくらいはなんとかなるかもしれない、意味がよくわからないな、と。

やっぱり、大学でコンピュータをちゃんと勉強したような人じゃないと、ディープラーニングって意味がわからないものなのでしょうか?

113 :
>>112
必要な数学とか統計学も一緒に勉強してしまえばいいと思うよ。

114 :
>>113
統計とかも勉強する必要があるんですか。
なかなか大変なんですね
ありがとうございます。

115 :
>>112
馬鹿でも出来る

116 :
>>114
動かすだけならNVIDIA DIGITSあたりが手軽だと思うよ。

117 :
意味が分からない方が幸せかもしれない
知ればあまりの制約の多さに、絶望するだろう
期待しているものには全然届かない

118 :
>>116
そうなんですか。
買ってきて、パラパラ読んでる本だとPythonでやってみようとあるので、使わなくなったパソコンにPythonいれてやってみようとしてます。
専用のハードまで買うのはなかなか難しいですね。

119 :
>>117
まだ本を買ってきて、これから読みはじめるとこなので、挫折できるほど進んでません。
どう言うことができるようになる技術なのか、ある程度わかるようになれたら、いいなぁというのが今の目標です。

120 :
http://blog.livedoor.jp/itsoku/archives/50309292.html

おまえらがChainerばっかり使うからKerasの作者が困惑気味やでw

121 :
だってkerasで凝ったことしようとするとすぐにtheanoが顔出すんだもん

122 :
H265の検証→アニメ
VR→アニメ
顔認識→アニメ
画像生成→アニメ
なぜなのか
本当にがっかりする

123 :
>>113 石村貞雄・園子の御夫妻が「ディープラーニングのための数学」とか東京書籍より出してくれんかな。

124 :
>>113
統計やらないといけないというのは
SQLには集合(集合論理、集合演算、述語論理)やらないととおなじなんでは
事典をパラパラめくるのは気づかせられるときあるけど

数学も行列演算だけでよいきがする

125 :
行列演算よりは線形代数
それよりも最適化数学かな

126 :
>>125
ヤコビアンやらヘッシヤンやらナブラとかだっけ?
そこらは暗号アルゴリズムがライブラリで実装かつ隠蔽されるみたいにユーザより開発者はきにせんでいいのちゃうかな

MITやStanfordやのサイトのぞくとMLでそこらバリバリでてくるけど
Stanford Prof. Ng のMLのCoursera だとOctaveで行列演算がメイン、 Jacobianや偏微分ちらり、最適化降下アルゴリズムはライブラリ呼び出し

DeepLは必要なってくるのかな

127 :
2月は卒研で何も出来ない
3月締め切りのいい会議ないものか

128 :
CNNしようとすると、フィルタの可視化とかしたいので、やはりRGB(BGR)ですよね。
それだと3バイト。
しかしながら、画像に4方向(上下左右)を持たせたいのですが、どうするのでしょうか。

129 :
>>128
とりあえず16バイトぐらいもっといたらええやん
いらんかったら使わんでええし、足りんかったらまた言ってや

130 :
>>129
16バイトの画像形式ってありましたっけ?
CNNのフィルタを可視化したいので、画像形式じゃないと、困ったことになります。

131 :
>>129
1組の4枚の画像をそれぞれ別のCNNに送り込んで出力層で加算して
softmax関数を通す方が取り扱いが楽だと思う。

>>130
16バイト画像形式可視化をコーディングできないならCNN出力合成も無理かな?
それなら4方向の画像を2x2に並べた1枚の画像で学習させればよい。

機械学習スレに学習した画像を可視化する記事がある。
http://echo.2ch.sc/test/read.cgi/tech/1487433222/19

132 :
>>129

>1組の4枚の画像をそれぞれ別のCNN softmax関数を通す

そういったことが実現可能なんですね。
それがやりたいことです。

>可視化をコーディングできないなら

C++とかならいつもやってますが、
実は、M(ry、とかでやってるので、
専用関数を使うのですがその中身を見るとゴリゴリで、
慣れてなくてw

>記事

読んでみます。

133 :
>>129

>4方向の画像を2x2に並べた1枚の画像で学習させればよい

読み直したら、さらにこういう方法もあるですね。
CNNだから、画像間の関連は捨てられないものと思っていたのですが、
同じ形式で4枚並べるのはアリなんですね。

有効な解決策が2つ(以上)あるところが、NN的というか、おもしろいですね。

134 :
ごめんなさい、
アンカー「>>129」と書いたのは間違いで、正しくは「>>131」でした。

135 :
昨日プライムニュース(BSフジ)でなんかやってたけど
深層学習ってそんなにすごいの?

136 :
必殺!ディープラーーニング!!

137 :
予算どり

138 :
Openmpのoffloadingでgpu計算出来るならcupyもtensorflowもいらなくね

139 :
>音楽より画像処理の方が凄いな。ディープラーニングで画像補完。
フォトショでCG加工や写真補正をチマチマやる必要のないレベルに来てる。
そのうちディープラーニングで自動作曲とか出てきそう。

画像を塗りつぶした部分に一瞬で自然な画像を補完する技術を早稲田大学の研究者が開発
http://gigazine.net/news/20170501-globally-locally-consistent-image-completion/

140 :
Windows7 Pro 64bitでtensorflow-gpuインストールしてるんだけど、
GPUはGeforce750ti&Geforce1080tiで、以下のようにインストールして、

1.ディスプレイドライバインストール
2.Visual C++ 2015再頒布可能パッケージインストール
3.CUDA 8.0インストール
4.CUDnn V5.1インストール
5.Anaconda3(python 3.5.2)インストール
6.tensorflow用の環境作成
7.tensorflow環境をあくティベーとしてtensorflow.orgのインストール手順に従いtensorflow-gpuをインストール

pythonを起動して

>>>import tensorflow as tf

ってやっても、プロンプトが帰ってくるだけでCUDAのモジュールがロードされない。
通常は、

I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library cublas64_80.dll locally
I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library cudnn64_5.dll locally
I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library cufft64_80.dll locally
I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library nvcuda.dll locally
I c:\tf_jenkins\home\workspace\release-win\device\gpu\os\windows\tensorflow\stream_executor\dso_loader.cc:128] successfully opened CUDA library curand64_80.dll locally

て出るはずなんだけど何が原因だかわかりますか?

141 :
どの作業でもエラーは出ておらず、nvidia-smiでみてもGPUは認識されてるし何が悪いのかわからない。。。

+-----------------------------------------------------------------------------+
| NVIDIA-SMI 381.89 Driver Version: 381.89 |
|-------------------------------+----------------------+----------------------+
| GPU Name TCC/WDDM | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 GeForce GTX 750 Ti WDDM | 0000:01:00.0 On | N/A |
| 26% 40C P0 1W / 38W | 127MiB / 2048MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
| 1 GeForce GTX 108... WDDM | 0000:02:00.0 Off | N/A |
| 23% 30C P8 9W / 250W | 121MiB / 11264MiB | 0% Default |
+-------------------------------+----------------------+----------------------+

+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 4668 C+G ...x86)\Google\Chrome\Application\chrome.exe N/A |
+-----------------------------------------------------------------------------+

142 :
chainerでtrain_mnist.pyを実行すると、CUDAがないとか言われるからCUDAが見えないんだと思うけどPATHも通ってるし何が悪いのかわからない。。。

143 :
【DNN】グーグル子会社、深層学習より高い予測性能を実現 [無断転載禁止](c)2ch.sc
ttp://egg.2ch.sc/test/read.cgi/bizplus/1497919282/

144 :
二段目以降をどうやって学習、あそうか

145 :
   、z=ニ三三ニヽ、
  ,,{{彡ニ三ニ三ニミヽ
 }仆ソ'`´''ーー'''""`ヾミi
lミ{   ニ == 二   lミ|
  {ミ| , =、、 ,.=-、 ljハ
  {t! ィ・=  r・=,  !3l 
  `!、 , イ_ _ヘ    l‐'
    Y {.┬=、__` j ハ ̄
,. -‐ へ、`ニ´ .イ / /
、   |l`ー‐´ / /
 l   l |/__|// / 
 l    l l/ |/  /  

146 :
ニュー速に張られてました。本物ですか?

https://github.com/deepmind
https://github.com/Rochester-NRT/RocAlphaGo.data

147 :
どっちもホンモノだろ。

148 :
なに言ってんだこいつ

149 :
>>146
上はdeepmind公式
下は論文を読んだ有志が作ったもので
deepmindとは無関係

150 :
>>146
alphagoは第二の論文は予定しているけど
ソースコードは公開しないと公式には発表しているから
待っていても多分出ないよ。

151 :
ソースもない、バイナリもない。
ただコードを変更しなくても勝手にゲームのルールを学習したという。誰も再検証できない論文。

152 :
ネットワークにデータを流すときって、
単なる画像であればRGB画像でよいのでしょうが、
付加情報足して3次元以上になる場合って、
どういった空間にするんでしょう。
適当なバイナリにするのでなくて、
可視化できる形式なのがGOODなんですが。

153 :
>>123

違う人だけどこんなのも

ディープラーニングがわかる数学入門 技術評論社
http://gihyo.jp/book/2017/978-4-7741-8814-0

154 :
>>152

の件ですが、
画像に情報量が多い場合、
どういったフォーマットにしてまつか?
色空間とかどれが良いのでしょう。

155 :
YUV

156 :
YUVだと、情報を混ぜられるんですか?

157 :
YUVのメリット教えてくださいorz

158 :
夏だねぇ

159 :
372仕様書無しさん2017/08/11(金) 10:31:43.41
フリーランスで検索すると引っかかる零細ITがやっているサイトはだめだ。
高額に見せているけど実際は50万前後
JIET加入した方がいいよ。案件は毎日千件以上末端価格は60万円 平凡な稼働時間の80万円の案件もある。
ユー子が求人をだしてる。名刺も渡せる。ユー子に名刺が渡せるんだぞ。夢のようだ

それらの案件まさぐってHPで転売していたのが零細ITがやるフリーランスサイト

自称エージェントはJIETから流れてくる案件を転売してるだけだった。
JIETに加入すれば誰でも案件に応募することができた。収入が40万50万台にならなくて済む

473非決定性名無しさん2017/08/03(木) 15:21:30.71

JIETに加入すれば誰でも3次60万からスタートだ。フリーランスのサイトをやってる
自称エージェントもそこから案件情報を取得しきてる。サイトで60万で釣って40万から55万の
間でやらしている。

160 :
【IT】Google、音声認識システム訓練用データセットをオープンソースで提供 [無断転載禁止]©2ch.sc
http://egg.2ch.sc/test/read.cgi/bizplus/1503908555/

161 :
AIの学習を実験してみたいのですが、
半精度浮動小数点 ビデオカードで、
お勧めのカードはありますか。
手始めに「GeForce GTX 1070」あたりがコスパ的にも良いのでしょうか。

162 :
Tesla P100

163 :
http://www.hpc.co.jp/campaign_17.html
税込 \1,074,600?

164 :
ReLUって読み方

レル

でいいの?

165 :
よろしいよ。教授が言ってたから

166 :
resnetはレズネット?

167 :
エロいな

168 :
エロすぎ

169 :
井脇ノブ子でも?

170 :
Tensorflowってc++で全部書いた場合の半分ぐらいは速度出る?

171 :
ディープラーニングの人気書籍のレビュー見ると、
結局この本はディープラーニングの手前だとか、
機械学習の本であってディープラーニングじゃないとかいうオチで締めくくられているが、
どの本が本当にディープラーニングなんだ?
ひょっとして存在しないのか?

172 :
>>170
へたなC++より速い

173 :
>>171
出口を設定してくれ

174 :
>>173
つまりちゃんと色々なDeepLearningのプログラムを実装して実行できるまでが載っている本
DeepLearingがわかる本

175 :
ディープラーニングとディープニューラルネットワークの違いが分かってない著者が多いな

176 :
人間ってなんだ?

177 :
>>171
多層なことを以ってDLと称する論者もいるからね

178 :
ボルツマンとかオートエンコーダって息してる?

179 :
>>178
してるよ。

180 :
>>175
くわしく。

181 :
バッチサイズの決め方の指針があれば教えてください

182 :
デバイスの制約で自動的に決まります

183 :
>>175
どういう意味だ?

184 :
僕の知り合いの知り合いができたパソコン一台でお金持ちになれるやり方
役に立つかもしれません
グーグルで検索するといいかも『ネットで稼ぐ方法 モニアレフヌノ』

K1B2F

185 :
【大学数学】ベイジアンネットワーク【機械学習】
https://youtu.be/zYKOL5RpVbo
概出?

186 :
43J

187 :
K1B2F

188 :
あげ
https://www.anaconda.com/blog/developer-blog/tensorflow-in-anaconda/

189 :2019/02/23
>>8

【独学】一人で勉強する奴らのスレ【自習】
Visual Studio 2017 Part7
安価でプログラミングの教科書を作るスレ
delphiで作った有名ソフトって何があるの?
ぶっちゃけ始めるのにいい言語て何?
Visual Studio IDE環境
次世代が造った言語 blawn
D言語は多分コケると思っている人の数→
家計簿ソフトを作る
クライアント「神々たる仕変!後悔など遅い!」
--------------------
レスすると必ずメールが来るスレ part175
【MSR】岡田 愛 ☆二十四代目【おはガール】
FF14 チャH晒し雑談176【ワッチョイなし・ID無し出禁】
【コロナ】広がる感染、止まる工場、縮まる貿易……統計数字に出始めた「悪い流れ」日本
水とインスタント・カップ麺で何日生きられるか
【音楽】ザ・フーのギタリスト、ピート・タウンゼントが田代容疑者に助言
アスタリア Astaria 質問スレ Part2
⊇*.⊆おなら&ギャラリー(^O^)79
なぜ女は押しに弱いのか、仕組み解明
【KSM】川田先生がんばって!【負けない心】
ぬるぽを2時間以内にガッ@鉄道模型108
【総合スレ】龍が如く【四百二十代目】
【反日アート展】津田大介氏「二代前なら…」昭和天皇の写真燃やすのを容認していた? 『表現の不自由展』の炎上は確信犯か★2
【MBTI】逆説隔離スレPart.32【詭弁池沼】
絵柄・アイデアのパクリ・ストーカー被害
【中野区長選】過去に「朝鮮学校への補助金削除」を主張した保守系候補、左派集団から攻撃される ポスター落書き、脅迫など★2[6/8]
【ぐ】GUを自由に語ろう ジーユー87【g.u.】
彼女連れで来てる奴うざい
異世界・異生物を創作するスレ
商品説明泥棒shinwan888を懲らしめよう!
TOP カテ一覧 スレ一覧 100〜終まで 2ch元 削除依頼