TOP カテ一覧 スレ一覧 100〜終まで 2ch元 削除依頼
将来的にPGになりたいんだが、やっぱCから?
C++相談室 part143
HSP総合スレ【part 10】 [無断転載禁止](c)2ch.net
【知識】俺のためのプログラム覚え書き【共有】
[RPA]PC自動化技術総合スレ[効率化] Part.7
[RPA]PC自動化技術総合スレ[効率化] Part.8
CORBAなら俺に聞け
【漏れは】猫でもわかる質問スレ【猫以下です】
サウンドプログラミング5
くだすれDelphi(超初心者用)その57
【統計分析】機械学習・データマイニング19
- 1 :2018/03/09 〜 最終レス :2018/08/02
-
機械学習とデータマイニングについて何でもいいので語れ若人
※ワッチョイだよん
次スレ立ての際は、一行目冒頭に
!extend:on:vvvvv:1000:512つけてね
■関連サイト
機械学習の「朱鷺の杜Wiki」
http://ibisforest.org/
DeepLearning研究 2016年のまとめ
http://qiita.com/eve_yk/items/f4b274da7042cba1ba76
■前スレ
【統計分析】機械学習・データマイニング17
http://mevius.2ch.sc/test/read.cgi/tech/1502032926/
【統計分析】機械学習・データマイニング18
http://mevius.2ch.sc/test/read.cgi/tech/1507807291/
VIPQ2_EXTDAT: default:vvvvv:1000:512:----: EXT was configured
- 2 :
- 【統計分析】機械学習・データマイニング11
http://echo.2ch.sc/test/read.cgi/tech/1482227795/
【統計分析】機械学習・データマイニング12
http://echo.2ch.sc/test/read.cgi/tech/1485008808/
【統計分析】機械学習・データマイニング13
http://echo.2ch.sc/test/read.cgi/tech/1487433222/
【統計分析】機械学習・データマイニング14
http://echo.2ch.sc/test/read.cgi/tech/1489636623/
【統計分析】機械学習・データマイニング15
http://mevius.2ch.sc/test/read.cgi/tech/1492344216/
【統計分析】機械学習・データマイニング16
http://mevius.2ch.sc/test/read.cgi/tech/1498493352/
【統計分析】機械学習・データマイニング17
http://mevius.2ch.sc/test/read.cgi/tech/1502032926/
- 3 :
- 【統計分析】機械学習・データマイニング【集合知】
http://toro.2ch.sc/test/read.cgi/tech/1286200810/
[統計分析]機械学習・データマイニング[集合知] 2
http://toro.2ch.sc/test/read.cgi/tech/1342812444/
【統計分析】機械学習・データマイニング3
http://peace.2ch.sc/test/read.cgi/tech/1350121405/
【統計分析】機械学習・データマイニング4
http://peace.2ch.sc/test/read.cgi/tech/1403603502/
【統計分析】機械学習・データマイニング5
http://peace.2ch.sc/test/read.cgi/tech/1439302488/
【統計分析】機械学習・データマイニング6
http://echo.2ch.sc/test/read.cgi/tech/1455651930/
【統計分析】機械学習・データマイニング7
http://echo.2ch.sc/test/read.cgi/tech/1460535528/
【統計分析】機械学習・データマイニング8
http://echo.2ch.sc/test/read.cgi/tech/1464586095/
【統計分析】機械学習・データマイニング9
http://echo.2ch.sc/test/read.cgi/tech/1470037752/
【統計分析】機械学習・データマイニング10
http://echo.2ch.sc/test/read.cgi/tech/1479498503/
- 4 :
- ■関連スレ
パーセプトロン
http://rio2016.2ch.sc/test/read.cgi/informatics/1330911251/
人工知能ディープラーニング機械学習のための数学
http://mevius.2ch.sc/test/read.cgi/tech/1482808144/
Deep learning
http://mevius.2ch.sc/test/read.cgi/tech/1387960741/
ディープラーニング(過去ログ)
http://echo.2ch.sc/test/read.cgi/tech/1457792560/
自然言語処理スレッド その4
http://mevius.2ch.sc/test/read.cgi/tech/1401741600/
■人工知能考察スレ
(強いAI)技術的特異点/シンギュラリティ(知能増幅) 74
http://rio2016.2ch.sc/test/read.cgi/future/1498186101/
(AI)技術的特異点と政治・経済・社会等(BI) 10
http://rio2016.2ch.sc/test/read.cgi/future/1498288837/
(情報科学)技術的特異点と科学・技術等 2
http://rio2016.2ch.sc/test/read.cgi/future/1489922543/
人工知能
http://rio2016.2ch.sc/test/read.cgi/future/1286353655/
人工知能で自我・魂が作れるか
http://rio2016.2ch.sc/test/read.cgi/future/1476229483/
こころがあるロボットは作れるのか
http://rio2016.2ch.sc/test/read.cgi/robot/1287505889/
- 5 :
- 990
まだ気持ち悪さがある
- 6 :
- 理由ちょっと考えてみたけど
まばたきとか目線とかかな
- 7 :
- あんな前時代的な町工場的ハイポリモデルはほとんど無価値だ
- 8 :
- この方が衝撃やね
https://i.imgur.com/LdkI6pp.gif
- 9 :
- 最近、AIはパーセトロンが〜とか、
活性化関数が〜とか、
AIは脳をモデルにしてるから〜とか、
言い出す輩が減って正直嬉しく思ってる。
生態モデルが最適なモデルかどうかはそもそも立証されてないし、
NNは生態モデルと言えるのであれば、
既存のシュミレーションである有限要素法なども、その動作原理の類似性(例えば有限要素法もただ関数の係数の重みを計算してるだけ)から生態モデルと言えてしまう。
雄一解と解の収束性が保証されている点で全く性質が異なるのに。
- 10 :
- それで何が言いたいの
- 11 :
- 昔から人工ニューラルネット、工学モデルと言われているがw
- 12 :
- ローゼンブラットがパーセプトロンを発表したときに何に着想を得て作ったかという話でしょ
- 13 :
- 松尾豊ってなにがすごいの?
- 14 :
- 「学習」だと知性があると勘違いしてしまうので、
「フィッティング」とか他の言葉で表現してほしい。
AIを紹介するテレビ番組を見てると特にそう思う。
- 15 :
- それだと予算が取れないだろw
- 16 :
- kerasはfitって関数あるじゃん
- 17 :
- 知性、知性って言うが、知性ってなにかね
- 18 :
- 名称はAIじゃなくて機械関数でよくね
- 19 :
- MachineFunction
- 20 :
- Machine that think
- 21 :
- >>20それボツ
実際に考えてるわけじゃないから
- 22 :
- 有名なAIの本だよ、無知
- 23 :
- >>14
フィッティングだけでも「学習しない馬鹿な人間」よりも上だったりするからな
- 24 :
- 究極を言えば人間も筋肉を出力とした誤差関数のフィッティング
- 25 :
- 人差し指にすこ〜し力を入れるだけで人生が大きく変わってしまう現代でなにいってだ?
- 26 :
- 機械学習の導入サービスって結構需要ある?
- 27 :
- 導入ってなに?
- 28 :
- >>26
人工知能って言っとけばOK
- 29 :
- 目先のお金のために騙すようなことすると、実は大したことやってないとバレた時に信用を失うよ。
- 30 :
- 松尾豊みたいに?
- 31 :
- 挿入サービスいいよ
- 32 :
- 2つのデータセットがあって
両方混ぜて学習させるのと片方学習してからもう片方では結果はかなり違う?
- 33 :
- 生か
- 34 :
- 違うわけねーじゃん
- 35 :
- 進歩はやい分野で昔作ったものをたいしたものじゃなかったと言われても困る
- 36 :
- >>32
データセットの偏り次第
- 37 :
- 特徴量Xの選択や出力Yの確率分布関数の選択は人間がやっているのに、
それを明確に伝えずに「学習」とだけ素人に言ってしまうと、そこに人間の意志は介在しないと受け止めてしまう。
わかってて伝えていないとしたら、不誠実だよね。
- 38 :
- 素人に伝えるw。特徴抽出の説明もすればw
- 39 :
- 自分で調べろってことだよ
- 40 :
- 素人が勉強するわけがないw
- 41 :
- >>14
なぜこういう文系脳がムにいるんだろう
- 42 :
- >>41
いやいや14の意見は機械学習の動作原理よく理解していればまともな意見だと思うけど
- 43 :
- 知性があると感じるかどうかは受け取る人次第
- 44 :
- 実際にはないわけだが
- 45 :
- そもそも、詳しければここに来ないかも
- 46 :
- 痴性溢れる会話ですね
- 47 :
- 囲碁将棋でAIに全然勝てないから、俺達の方がバカってことでいいよ
- 48 :
- 馬鹿だなーw
- 49 :
- 機械学習は単なる統計学の
発展した形っていうのが実情だろよ
- 50 :
- 強化学習にも応用できるが
- 51 :
- >>49
ただの関数だよ
- 52 :
- https://carview.yahoo.co.jp/news/newmodel/20180320-10294785-carview/
- 53 :
- 『ゼロから作るディープラーニング』のアマゾンレビューを久々に見たが
低評価が目立ってるな…。
あとゼロから作る自然言語処理をテーマにした続編が出るそうだ。
- 54 :
- あれは良書だと思ったけど
ハードルを低くしたから変なのが評価しているのかも
- 55 :
- 個々人のレベルに関係するのかも
- 56 :
- あーRNN(LSTN)方向にいくんか
kerasでDNNとZQNがよかったな
- 57 :
- LSTN www
- 58 :
- イクッ
- 59 :
- インターフェース 2018年5月号 買った人 or 見た人 いる?
- 60 :
- トラ技3月号のほうが良かった
- 61 :
- 学習用作成したデータの標準化って、要素単位でやるんですよね
配列全体をひとまとめに標準化するんじゃなくて
- 62 :
- 要素って次元のこと?
- 63 :
- 日本語でおk
- 64 :
- 次元です(体重、身長、性別(ダミー))とあった場合
体重は体重だけで標準化、身長は身長だけで標準化、ダミーはそのまま
に加工すればいいという感じでしょうか
- 65 :
- 計算は要素単位だろうけど標準化は配列全体をひとまとめに扱わないと無理じゃね
- 66 :
- いや〜あくまで次元単位(変数単位)ですよー
- 67 :
- 黒木玄 Gen Kuroki
‏ @genkuroki
#統計 #Julia言語
#機械学習 の話を調べると、過学習を防ぐために「適当なところで最適化過程を止める」のような「極めて怪しいこと」(笑)をやっているようです。
その「極めて怪しいこと」(笑)の様子を単純なモデルで見てみたかったので、動画を作ってみました。
添付動画は n=64, d=3 の場合
https://twitter.com/genkuroki/status/977913862560165888/photo/1
#統計 #Julia言語 動画1つ当たりの作成時間は約12秒です。
https://gist.github.com/genkuroki/c440bc748ba230921c1a1f3613053b21 …
http://nbviewer.jupyter.org/gist/genkuroki/c440bc748ba230921c1a1f3613053b21 …
- 68 :
- >>67
過学習なんて、倒立振子の時代から問題になっていましたよ‥別に新しい話題ではないね‥
- 69 :
- >>67
宣伝乙
- 70 :
- >動画1つ当たりの作成時間は約12秒です。
頭に浮かんでから12秒なら凄いけど
- 71 :
- wikipediaも自分で書いてそう
- 72 :
- 機械学習における過学習は、機械学習が出てきたときからあるし。
過学習として考えれば別にこの50年で出てきた話題でもない。
スゲー昔からの話
- 73 :
- overfittingの歴史ってどこから始まってるの?
- 74 :
- 坊やがまだパパの金玉の中で尻尾振って泳いでいた頃からさ
- 75 :
- カスゴミの異常なまでの噛みつき方は過学習の結果かもしれんぬ
- 76 :
- 過学習さけるなら
ワイはベイズを使う
- 77 :
- 事前確率なんてキンモー☆
- 78 :
- ベイズだと過学習しないんですかあ?
- 79 :
- ところでお前ら仕事は?
- 80 :
- コンピューターがかってに稼いでいるよぉ
- 81 :
- 掲示板の監視
- 82 :
- >>79
会社の創立記念日
- 83 :
- 特定した
- 84 :
- attentionってどうやって実装するの?
- 85 :
- 最近のディープラーニング本で良いのは出たかな?
- 86 :
- 単位が取れるディープラーニング
- 87 :
- >>86
それぐらいディープラーニング普及してるかな?
まあど素人の俺がtensoflowやchainerやkerasいじっているんだから結構普及しているのもな?
- 88 :
- すぐわかるディープラーニング
- 89 :
- 「天才」年収1億円で採用 ゾゾ、先端技術の人材募集
http://www.sankeibiz.jp/business/news/180402/bsc1804021958007-n1.htm
AIやビッグデータ処理、ロボット工学といった技術系を中心に、博士号取得者、研究員などから
年収1千万〜1億円の「天才」枠は最大7人。年収400万〜1千万円の「逸材」枠は最大50人
ゾゾの社長ってこの前62億円の絵画を買った人
- 90 :
- 博士号取得者、研究員などから
- 91 :
- 逸材が400万かよ。相場だぞ
- 92 :
- ちょっと前に
DeNaが儲かっているからってそこに就職するような層が
飛びつくんだろうな
- 93 :
- 逸材程度で調子に乗るなってことだろ
- 94 :
- >>92
新興のIT企業の場合そもそも永久就職する前提で就職しない
数年で成果上げて次の職場に進むか起業すればいいから就職先は今さえ儲かっていれば特に問題ない
- 95 :
- 機械学習がいくら人工知能だと持て囃されても
結局は全部誤差関数を最小化してるだけでベイズ推定とか線形回帰から進化してないんだよな
- 96 :
- R
- 97 :
- まあ、機械学習が人工知能というわけじゃないわな。
機械学習を利用して人工知能を作ったというだけで、人工無能もつくれる。
- 98 :
- ディープラーニングよりも
線形関数のほうで解決出来るケースが
多い気がするのはワイだけ?
- 99 :
- 問題設定によるとしか
画像音声自然言語は無理じゃね
- 100 :
- >>98
だいたいはそう
しかし事例はまれだか重要なレアケースを拾えなくなる
- 101 :
- 線形にした方が楽は楽だけどね
- 102 :
- >>98
モデリングと評価関数が勝負だと思う
- 103 :
- >>98
>線形関数のほうで解決出来るケースが多い気が
結果の良し悪しを度外視してみた場合には
扱いも作りも楽だから適用しやすいのでそれは言えるだろう
同じことから汎用性を考えればそういえると思う。
良い結果を求めたいという話(今回はそう書かれていない)になると
話は異なるが、今回は人が線形でという前提になっているので。
もし、計算のアルゴリズム自体をAIが自動的に作成してくれると
なった時には、違うでしょうね。
- 104 :
- AmazonML(Amazon Machine Learning)を使っている人いますか?
- 105 :
- おりますん
- 106 :
- プライム会員ですが何か?
- 107 :
- 使用している方がおられるということなので
ぜひ可能な範囲で教えてください
チュートリアルにモデル構築についてあまり書かれていないのですが
AmazonMLは
・モデル選択不要(最適モデルをAMLから提案)なのでしょうか?
・リアルタイム処理、バッチ処理というのがありますがオンライン学習(逐次学習)にも対応可能でしょうか
・ローカルでRやPythonその他を使った機械学習に比べて使用感はどうでしょうか
・どのような用途で利用しているか(実務 or 学習)
- 108 :
- ワイの美人と評判の妹も
AmazonMLに興味あるみたいだから
答えて欲しいだ
- 109 :
- 豊登劇似の妹がナンだって?
- 110 :
- これって自前のデータをkaggleにアップロードして分析可能ということかな
しかもタダで
グーグルさんどんだけ太っ腹なんだと
http://blog.kaggle.com/2018/04/03/q1-2018-product-update/
- 111 :
- アマゾンのことは荒れ草に聞け
- 112 :
- 卒論で1年かけてディープラーニングやることになったんですが
テーマをもらっただけで何から手付けていいかもわからない状態です
入力ベクトルあたえたら出力ベクトル出す予測器があって
出力ベクトルに対して誤差とかスコアを設定すると
予測器の中身の関数がかわっていくみたいな?認識であってますか?
JavaかCしかかけないのでその2つでサンプルコードがあったりしませんか?
pythonでデータをつくってライブラリにおくるだけみたいなコードはよくみるんですが
中身の部分の実装が知りたいです
あと何に応用できるかがよくわかってなくて
とりあえず教師無し学習でネット上の文章から知識獲得して勝手にしゃべるようなAIを作るか
教師あり学習の例として何かパズルゲームをとくようなAIを1年かけてつくりたいなーとなんとなく思っています
たとえばゲームをディープラーニングでとかせようと思ったら
ある局面を入力にして出力にはとりうる行動パターンを設定する感じになるんですか?
最終的にとけた場合にしか評価ができないんですけどどういう風に誤差やスコアを設定すればいいんでしょうか
長文になってしまってすいません
参考になるサイトとかがあれば教えていただけるとうれしいです
- 113 :
- 実装をCとかJavaで造る(車輪の再発明)のが目的なの?
それとも応用する研究?
- 114 :
- C言語で書かれてるライブラリならdarknetがあるけど、実装が目的なの?
応用にしてもどういうアプリケーションができるか教授と相談した方がいいよ
- 115 :
- >>113,114
卒研なのでそのへんも自分できめていいんだと思いますけど
最悪ライブラリにデータ流し込んでグラフ描いて適当な考察のせておわりでもいいんですけど
1年あるしプログラムかくのがすきなのでできれば中身をかいて理解したいなーと思ってます
- 116 :
- ディープラーニングをやるだけじゃ何もテーマ決まってないのと同じだよ
- 117 :
- ライブラリの中身知りたいならゼロから作るdeep learningがCNNまでをライブラリ無しで実装しているのでオススメ
MLやってる絶対に研究室ならあるだろう
強化学習は結果をもとにそれまでの手の評価を行うから最初モンテカルロになるのは仕方ない
alphagoも同じようにランダムに打って結果から評価してるのは同じだけど
評価関数をあらかじめプロの棋譜で学習してるから途中の手筋である程度の収束させてる
- 118 :
- >>116
画像認識とチャットボットとゲームAIあたりがいまうまくいってるみたいで
何かサンプルプログラムできたらなーってぐらいです
ちょっとゲームAIに応用するならどうなるのかなって考えてるところで
入力の与え方は分かるんですけど
出力と誤差の設定の仕方がわからなくて…
たとえばマインスイーパーをとかせるとかだったら
盤面情報を入力ベクトルにして 出力に開くマス「X,Y」とかを設定すればいいんでしょうか?
その場合フィードバック誤差は爆弾をふんだ時点で-1 クリアまでいったら1とかにすればいいんでしょうか?
プログラムで誤差の逆伝播でニューロン関数のチューニングを実装すれば
利用者は入力出力誤差のエンコードだけやれば
あとニューロンの関数チューニングは勝手にやってくれていつのまにかAIができてるって感じになるはずなんですよね?
>>117
ありがとうございます
書籍なんですね
4000円もするの手が出ないので研究室にないか明日みてみます
なければ図書館さがしてみます
- 119 :
- 頭悪そうな卒研。。。
- 120 :
- ごめんなさい
やっぱりちょっと1週間程度できまったテーマでいきなり質問できるレベルじゃなかったかも
数ヶ月ほど勉強してからでなおしてきます
レベル低い質問してすいませんでした
- 121 :
- ゲームのAIはA*アルゴリズムとか習うんじゃね
テーマとしてディープラーニングが与えられるんなら、これまでに機械学習とか人工知能の授業があったろうに、いろいろ設定がおかしいよ
- 122 :
- A*って将棋とか相手のいるゼロサム対戦ゲームで枝狩りする探索アルゴリズムじゃないです?
もちろんルールをコーダーが理解して最適なプログラムくめば一瞬ですけどAIっていうんですか?
ルールを直接コーディングせずにクリアできたかできないかって情報だけで
勝手にルールを理解してとけるようになるってのが機械学習だと思ってました
マインスイーパーを例に出したのは知ってる中ではそこそこお手ごろだったからなので
ディープである必要はないかもしれないです
- 123 :
- >>112
>>入力ベクトルあたえたら出力ベクトル出す予測器があって
出力ベクトルに対して誤差とかスコアを設定すると
予測器の中身の関数がかわっていくみたいな?認識であってますか?
いんじゃね
- 124 :
- ゲームAIは全然詳しくないから全然アドバイスできないけど
Deep Q Networkとか流行りすぎてqiitaにまとめられた記事大量にあるからそれ読んでみたら?
強化学習は使うだけならkeras-rlとかchainer-rlみたいな超便利なライブラリもあるから
- 125 :
- 今どきchainer ってw
- 126 :
- 卒研の後書き
2chのみなさんに感謝いたします(笑)
- 127 :
- かつていたが
わざわざ大学入り直してまでやる内容じゃないな
- 128 :
- >>118
上手く行くのが判ってるのをやっても価値がない論文
- 129 :
- 以下はアルゴリズム
ダイクストラ法と、その派生のA*
グラフ/ネットワーク理論系の、NetworkX
計算時間が何百億年も掛かるのが、数秒で解けた
「おねえさんの問題」で有名な、
湊真一の超高速グラフ列挙アルゴリズム ZDD
- 130 :
- なんだかんだ言ってちゃんとアドバイスしてくれるのなお前ら
ツンデレかよw
- 131 :
- 卒研のテーマ与えてやれよ
- 132 :
- パーソンオブインタレストに学ぶAI攻撃型AIの設計と実装
- 133 :
- パーソンオブインタレスト面白かった。もう終わったかな
- 134 :
- 盤面入力に負値を使うと活性化関数でハマるからおすすめしない
囲碁やオセロなら入力盤面を2枚以上にして、白と黒を別々の盤面の0/1で入力するのが定番だと思う
学習中のAIは重複打ちをすることもあるから、さらに打てる場所用の入力盤面を追加したり
特定の場所に注目する様な盤面を足すこともあると思う
計算処理の実装よりも、モデルやパラメータの作り直しの方が大変かもしれない
- 135 :
- 評価関数の最大化とかではなく少ない計算量で学習させて正解に辿り着くようなアプローチってどっかにないのかな
- 136 :
- 今まで散々あった
- 137 :
- 機械学習で、おっぱい触らせてとかエロい口説き実装出来ますか?
- 138 :
- >>137
>口説き
これはその方法論を知りたいですねえ
- 139 :
- 物理的に金塊とか見せびらかした方が良さそう
- 140 :
- >>クソニン
- 141 :
- >>137
そのGPUパワーでビットコイン採掘した方が口説ける確率上がると思うw
- 142 :
- 日経ソフトウェアが別冊付録付きでpython機械学習特集になっとった
- 143 :
- >>141
そういえば、2020年待たずに、ビットコインに絡む電気消費量が
全米の電気消費量を越しちゃうんだって。
ビットコイン無理そうね。
- 144 :
- ほとんどがエアコン代でさ
ロシアみたいな極地の勝利
- 145 :
- 量子ドット型コンピュータがあれば一瞬でできる
- 146 :
- 仮装通貨はいずれ規制されそうな予感
- 147 :
- >>146
恐慌来そう。
- 148 :
- >>147
空売りしようぜ
- 149 :
- jupyter labとnotebookどっも括弧やクォーテーションの補完が効かないんだけどデフォ?
それともなんかおかしい?
- 150 :
- まるちんこ
- 151 :
- 大学の社会学部で以下のような刷り込みをされた。すなわち、人間関係を非常に重視し、なんでも彼らの中で相談したうえで自身の判断を下すような輩は「他人志向型」で「内面志向型」に比べて程度の低い人間だと。
しかし弱学習器アンサンブルを手中にしている前者の方が正しい判断を下せるのでは?
- 152 :
- 知らんがな
- 153 :
- 前者はAIでも可能
後者が出来るのは人類と宇宙人だけ
- 154 :
- ちんちんシュッシュ
- 155 :
- 某中堅の監査法人に勤めていて、1年ほど前から、人工知能を使った業務の自動化を検討して、
私もそのメンバーに選ばれましたが、私も含め周りの人間も手探り状態です。
大学は商学部出身なので、高校数学からやり直し、大学の線形代数、微分積分、確率
とやってきて、今、統計学(学士以上、修士未満、測度論の手前まで)を一通り学び終わったところです。
資格でいうと、統計検定準1級合格レベル(来月受験予定)、品質管理検定1級、アクチュアリー一次試験・数学合格。
ここまでだと、大学のカリキュラムや資格試験の出題範囲に沿って勉強していけばよかったのですが、
このあと、機械学習・データマイニングへと進んでいくには、どういうカリキュラムを組んで良いか途方に暮れています。
何か道しるべになるようなサイトやアドバイスを頂けないでしょうか?
- 156 :
- 仕事に就けよ
- 157 :
- 頭悪い
- 158 :
- 機械学習なんか数学わからなくても適当にライブラリ突っ込めばなんとかなるだろ
- 159 :
- 結局実務に活かしたいの?機械学習を学びたいんの?
- 160 :
- >>158-159
着地点は実装ですが、前提として理論はしっかり学んでいきたいと考えています。
以前にも、コンサルティング会社とシステム会社にオブザーバーをお願いして、
内外のツールの選定作業をしましたが、どれも実務上使い物になるものはありませんでした。
- 161 :
- お前が作ったやつが実用になるとおもってるのか(苦笑)
- 162 :
- 業務の自動化に費やした時間>通常業務時間
となるのが目に見えてるな。
内部の人間しか細かい要求に答えられないと思われるが、システムの継続と保守を考えたら外注するのがコスト的にベストだよ。
需要に合ったものが出来ないのなら、コミュニケーション不足と考えたほうがよい。
- 163 :
- >>160
もう、自分たちで作るしかないな
理論からしっかり組み立てて
試行錯誤の後、3年くらいで使い物になるものが出来るんじゃね?
- 164 :
- 専用にプログラマ雇ったほうがいいのでは?
本業とひっくり返りそうだ
- 165 :
- システムの継続と保守ってとこが、無限に金吸い込まれて行くブラックホールになるんだよな。
- 166 :
- コメントありがとうございます。
内製か外注かという点については、内部でも会議が重ねられましたが、
情報漏洩防止、株主代表訴訟対策、ノウハウの蓄積、コンサル業務への将来的発展性など
もろもろの諸事情を勘案して情報戦略として、内製ということで決まりました。
今は所内で社内SEを育てようと、私も含めてここ1年間はずっと社内・外部研修&自習学習で、
本業からは外れています。経験者採用もやっていますが、なかなかこの分野での研究実績が優れた人は見つからないですね。
- 167 :
- 理論寄りの話はコンピュータ科学、実装寄りの話は情報工学やソフトウェア工学を学ぶのがいいと思うよ。
- 168 :
- ツイッターで
CNNが畳み込み演算ってのは間違いで
正しくは相互相関だぞってキレてる
畳み込み警察いてわらう
- 169 :
- convolution=畳みこみじゃなかった?
- 170 :
- Yes高州クリニック
- 171 :
- >>155
人工知能を使うことが目的になってるように見えるけど、人工知能でどういう問題を解決したいの?
- 172 :
- > 某中堅の監査法人
ってあるから
検査の結果が異常かどうかの判定や
品質の予測かな
だとしたら
既存のディープでない機械学習で十分に思える
- 173 :
- 深層学習の畳み込み層の処理は「畳み込み」じゃなかった件
http://tdual.hatenablog.com/entry/2018/05/02/113110
https://twitter.com/tdualdir/status/991505578311667712
正しくは相互相関 なぜConvolutionalと名付けた まあ、ただの名前だし、数学の用語が誤用させるのはよくある
T2@T_Shuke
微分・積分・統計学を学べばconvolutionは幾度も出てくるけど、勉強してこなかったデータサイエンティスト(笑)はcnnで元来の意味とは異なる畳み込みを先に覚えてしまうということか
tdual@情報幾何
おい。畳み込み層の処理は畳み込みじゃないのかよ。
相互相関かよ。
きくらげ@Kiikurage
最近の「CNNは畳み込みじゃない」論争、なにが発端?
- 174 :
- なんかこえー畳み込みおじさんいて笑う
T2 @T_Shuke
微分・積分・統計学を学べばconvolutionは幾度も出てくるけど、勉強してこなかったデータサイエンティスト(笑)はcnnで元来の意味とは異なる畳み込みを先に覚えてしまうということか
T2 @T_Shuke
できない、やらない、聞く耳を持たない、常に上から目線、大企業病の自称大企業の自称データサイエンティストは業界の面汚しだと自覚してほしい
T2 @T_Shuke
データサイエンティストは確率積分方程式とか勉強するの?
T2‏ @T_Shuke
確率論もさることながら統計学もやらないでデータサイエンティストを騙る人が多くて恐ろしい
- 175 :
- で何がいいたいの?
- 176 :
- マウント取りたい、でわ?
- 177 :
- マウントでは無い。ガードポジションだ。
- 178 :
- 三度の飯より好きな粗探し
- 179 :
- 実際、CNNが畳み込みだと思ってる馬鹿が多いことに呆れるだろ
ここにもいるみたいだけど
まあそれだけディープニューラルネットが馬鹿でもそれなりに使えるようになったってことだけださ
- 180 :
- あなたは心の病気だよ
相手が誰でも喧嘩を吹っかけて勝った気にならないと落ち着かない症状
しかしそんな事じゃ本質的な解決を避けてるだけだから
いつまでも満たされずにいつも不安になる
そして不安を一時的に誤魔化す為にまた喧嘩してマウント
DLの事など全く関係が無い
少しでも勝てそうなポイントばっかり探して勝とうとするだろ
負けそうになったらすぐ退散か話題をブチ切り
医者に相談するレベルで異常だよ
少なからずあなたのような人はいるけどいつまでもやってると全員にNGされて一人で絶叫するだけ
以前にも指摘されてたろ
こう書いても無視か絶叫だろうが
何らも会話する要素が無い
知らない人はあなたのコメントに惑わされることもあるだろうが
ウンザリ
- 181 :
- おじさんていうか、この画像見る限りカマ野郎だな
- 182 :
- 単純なデータマイニングだったとしても
今ならAIと吹聴できる雰囲気
- 183 :
- http://pr.fujitsu.com/jp/news/2017/08/30.html
これAI?
- 184 :
- >>183
ただのシンプレックス法にみえますが
- 185 :
- いいえ
- 186 :
- 線形計画法?
まさかね
- 187 :
- >>183
そもそもAIに統一見解などないので何でもAIと言ってもいいしAIでないと言ってもいい
- 188 :
- この説明もわかりません
「例えば、8,000人の子供がそれぞれ第5希望まで希望を出すと、5の8,000乗通りの組み合わせが出てきます」
保育園の数をnとするとこども1人あたりの希望のパターンは5通りではなくて n x (n-1) x (n-2) x (n-3) x (n-4) 通りになるように思えるのですが
- 189 :
- ちなみに以前からいる数オタサラリーマンはID:5AtpQsf4aではないから一緒にすんなよ
- 190 :
- 言ってることには完全同意だが
- 191 :
- >>184
最適化には見えるが、シンプレックス法を使っているかどうかは
だれがみてもわからないでしょ。
- 192 :
- >>187
最狭義に解釈したら全脳シュミレーション。
- 193 :
- ある個人が1日に10回体重を計ったデータが100日分あるとしてください
いわゆるディープラーニングでは、その10個のデータを渡せば特徴量間の関係も織り込んだ予想をしてくれるのでしょうか
それとも最大値と最小値の差や標準偏差といったものを算出して特徴量として使うほうがいいのでしょうか?
- 194 :
- 同じ人の体重が1日10回の100日あったところで微妙な体重の増減しかわからないし、ディープラーニング関係ないんじゃないの?
- 195 :
- >>193
最近の流行は前者ですね
1000サンプルでは全く足りないと思いますが
- 196 :
- >>193
特徴量間とか言って体重以外にどんな特徴があるかわからんし何させたいのかわからんからなんとも言えない気がする。
- 197 :
- 話をぼやかすのはいいけど大事なとこも飛んでるんじゃないか
- 198 :
- 脳味噌も飛んでるんだろ
- 199 :
- >>195
ありがとうございますその方向で始めてみます
>>194, 196, 197
すみません例えが悪すぎました
- 200 :
- マイクロソフト、FPGAを用いたAI処理基盤「Project Brainwave」開発者向けプレビューを発表。GoogleのTPUより高性能と。Build 2018
https://www.publickey1.jp/blog/18/fpgaaiproject_brainwavegoogletpubuild_2018.html
- 201 :
- Azureって全然使ってる話聞かないな・・・
- 202 :
- MS教徒は使ってるだろう、たぶんw
- 203 :
- >>201
話を聞かないだけで裏で動いてる
大半の人は使ってるよ
- 204 :
- 試用期間だけ使って放置してたら営業から電話かかってきて乗り換え先聞かれたよ
あんまうまくいってないんだと思う
- 205 :
- アズーリってイタリア代表のことだろ
- 206 :
- >>200
ニコニコドワンゴのFPGAはどうなったんだっけ?
断念したんだっけ?
- 207 :
- 草草草
- 208 :
- >>206
まだ募集中らしい
http://gihyo.jp/dev/serial/01/dwango-engineersoul/0003?page=2
http://dwango.co.jp/recruit/
- 209 :
- >>201
あんたが知らないだけ。
今のMicrosoftは、WindowsやOfficeじゃなくてクラウドの会社。
- 210 :
- 千葉 雅也『勉強の哲学 〜来たるべきバカのために』は、昨年度の文系書籍部門ベストセラーだったけど買わなかった。
さっきなんとなく立ち読みしたら、機械学習的発想だった。「バカになれ」とは「全体を見ないで専門バカにならないために、適当に勉強を切り上げて、
次の流行に次の流行に…と軽薄にやりつつ、試行錯誤の経験を蓄積するためにバカにされることを恐れずにイタイ発言とか作品発表とかもどしどしやろう」っていう事らしい。
- 211 :
- まあおそらく、全ての知識は陳腐化するから全ての人はバカになる。だから、バカを極めた超バカは超賢いに?!?
- 212 :
- さっきインスタンス死になりかけた。
ギリギリ、ランチのフランス料理にいいワインつけてデザートとった程度で気が付いた。
- 213 :
- >>210
面白そうな人だね
プログラミングでいえば、
C++ の求道的な道には見切りをつけて、javascript ruby, php, らの流行のフレームワークを追いかけつつ
糞なプログラムもどんどん書こう、
ということですか
- 214 :
- 過去のAIブームと同様に機械学習ブームも早晩終わるわけで、根底にある統計学的な理論を理解しようともせず
ブラックボックスのパッケージ使うだけの人はこの機械学習ブームからは何も学べていないに等しいと言える
- 215 :
- RDBMSの理論的背景を知らなくたって、ただblogサイトを作るために(Wordpress等のために)MySQLを使うことはできる。
機械学習のプロダクトも簡単なものから順に日用品化していくよ
- 216 :
- ニューロファジィブームなんてあったな
- 217 :
- >>215
日用品化していくからこそ、それを単に使えるだけという能力には徐々に価値がなくなるので背景の理論の理解が必要ということ
- 218 :
- ニューロファジィ洗濯機とかあったな
あのブームは何故終わったんだろう
- 219 :
- 基本的にAIと呼ばれたものが一般に広まって当たり前に使われるようになれば単なるアルゴリズムの一種としか見なされなくなるから過去のAIブームの産物も消えたようでこっそり生きている
ただAIと呼ばれることがなくなっただけ
- 220 :
- マッチングを三角形でやるだけ(笑)
- 221 :
- >>210
一つの学習器だけ使ってると過学習するから弱学習器をいっぱい積み重ねた方が汎化性能良くなるよ、って話かな。
人間としてどっちが上等とは一概に言えない気もするけど。
- 222 :
- たしかに人間も過学習で馬鹿になった人をいっぱい見かける
- 223 :
- >>217
最高性能を追求するならそうだけど、SOTAの8割の性能でいいから自動化したいみたいな用途なら出来合いのお任せでも十分
- 224 :
- >>210
文系ぽいアホな言い分
- 225 :
- >>223
労働者目線では出来合いのおまかせなら誰でもできるわけで給料が上がりづらいので、
理論を体系的に理解した上で各時代の最先端(その時点では簡単に出来合いのものを、というわけにはいかないもの)が扱えなければならない
- 226 :
- 年を負う毎に技術が高度化しているから、技術格差が所得格差に繋がるのは必然でしょうね。
昔は、スタンドアローンのスクリプトが書けるだけで、月に200万円も貰えた時期がありましたが、
今じゃ、学生さんやお年寄りでも、使える人がいる。一方で、今でさえ、それすらできない人もいる。
- 227 :
- 現状こんなところ
システムを使うだけのオペレーター:年収300万円(AIに取って代わられる可能大)
ライブラリーを呼び出して使うだけのエンジニア:年収600万円(今はIT人材不足だが、将来的には単価下落の方向)
そのライブラリーを作れるエンジニア:年収1000万円(技術力を更新できれば、単価維持も可能)
オリジナルの技術でビジネスモデルを構築できるエンジニア:年収1000〜∞万円
- 228 :
- 年収千円〜数万円か
- 229 :
- aiって発展途上だし
いずれ壁にぶつかるよ
- 230 :
- >>229
>いずれ壁にぶつかるよ
それは、オマエの狭い狭〜い了見からの思い込みにすぎない。
壁にぶつかるか、壁を突き抜けていくか。壁を突き抜けていくと考える研究者の方が多数派。
最近のトップカンファレンスでの発表を見聞きしていると、その確信が深まる。
- 231 :
- >>229
ただ氷河期があるだけだよ。今のブームが終わると次は10年以上先に第4次AIブームがくるだろう(たぶん、きっと)
- 232 :
- >>230
どのカンファレンスで?
- 233 :
- >>232
NIPS、IJCAI、ICML、ICANN・・・
e.g. GANs in ICANN2017
- 234 :
- もうちと技術的な話題を語りたい
- 235 :
- イメージだけが先行するのはよくない
- 236 :
- >>231
氷河期には同意
- 237 :
- 壁にぶつかるとしたらハードの方じゃない?
- 238 :
- 嫌、資金繰りでしょ
予算なくして何も動かず
- 239 :
- 壁を打ち破る理論が出るのが早いか
投資家に見放され、陳腐な技術に堕ちるのが早いか
- 240 :
- >>239
いいね。その視点。
- 241 :
- アホだろ、何も言っていない
- 242 :
- 機械学習は進歩早いからオリジナルの技術って言っても何かに利用しましたっていう部分しかない。
ネットワームモデル自体の研究は研究者の仕事だ
- 243 :
- 他の理論が出てきても無駄にはならんしょ
- 244 :
- 競艇とか競馬の着順予想って順位を予測するのが多いのかな?
タイムのほう予測できない? 👀
Rock54: Caution(BBR-MD5:8f50f269c4f2853ecd0dfe9a88a1b798)
- 245 :
- なんで目玉ww
- 246 :
- つうかただのPGはどの分野でも400が相場だろ
500以上は管理職クラスだ
- 247 :
- 俺もPGになりたい
- 248 :
- プリンターのお守り
テープかけ
カード読まし
バブル期最低のハイテクバイト
- 249 :
- >>246
流行の最先端を走ってるPGなら800はいける
米国なら青天井
- 250 :
- >>249
>流行の最先端
今の最先端はなんですか?
- 251 :
- ・・・スマホゲーム?(笑)
- 252 :
- 今の労働市場で、PG400万円って、よほどこき使われているだろw
東京の話だが、600万円が中央値。フリーのPGなら800万円程度。
- 253 :
- 夢のある話だ
- 254 :
- 元請けはそのぐらいかもしれないけど、首都圏でも下請けには人月80万ぐらいで発注するから
手取りがその半分だとしたら500万ぐらいになると思う
あと、フリーで800でも年金と保険料が自腹だと、実質400〜500の社員と変わらない
- 255 :
- 売り上げ計算するより求人票見れば相場すぐわかるから
- 256 :
- >フリーで800でも年金と保険料が自腹だと、実質400〜500の社員と変わらない
800万円程度の年収で、年金と保険料で300〜400万円???
いい加減すぎだろww
- 257 :
- サラリーマンには、サラリーマン(給与所得)控除があるから、
年収800万円でも、所得は500万円以下になる。
高年収のサラリーマンでも、ほとんど税金を払わない
大多数のサラリーマンが税金を払わない分だけ、
少数の自営業者が払うから、1人当たりの税金が異常に高い
年100万円以上違うから、30年で3千万円以上違う。
だから自営業者は家を買えないけど、サラリーマンは家を買える
少数派から搾り取っても、選挙で勝てるから、めちゃめちゃしよる。
老人が多いから、選挙で勝つために、年金収入も、ほぼ無税にしてる
主婦(配偶者)控除も大きい。
ほぼ無税になる
これら多数派の税金を、少数派の個人事業主が払っている
年収8億のゴーンもサラリーマンだから、
サラリーマン控除で、ほとんど税金を払っていない
こういう職業差別の身分制度を作っているから。
選挙で受かるために、多数派を無税にするから、その分少数派の負担が大きすぎる
個人事業主は選挙で、10票分以上持っていないと、
老人・主婦・サラリーマンの多数派に勝てない
- 258 :
- 家買えないほど格差があると分かっていてその点が重要なのなら自営業などやめればいいだけのこと
- 259 :
- >>252
紹介して
- 260 :
- TensorFlowで機械学習デビューしたいんですけど、何かおすすめなカリキュラムありますか?
ゼロから作るDeepLearningは読了しました
理解したかと聞かれると微妙な感じですが…
- 261 :
- PRML
- 262 :
- むつかしそう
- 263 :
- NICでも作ればいいんじゃない?
仕組み単純だし、GPUないときついけど
- 264 :
- 自然言語処理でコーパスって言葉が出てくるのですがこれはテキストデータの集合体を指すのかテキストデータを加工して名詞に分けたりしたものの集合体を指すのかどちらなのでしょうか?
- 265 :
- ひみつ❤
- 266 :
- >>256
国民年金そんなに高くないぞ。
- 267 :
- >>257
自営は必要経費を計上できるだろう。
- 268 :
- >>260
回帰系・自然言語系なら、詳解ディープラーニング
TFとKerasのコードが載っていて分かり易かった
- 269 :
- kaggleで実績積んで転職したいよおおおお
- 270 :
- すれば、するとき、した
- 271 :
- 誤差逆伝播法わかんない幼卒
- 272 :
- BP法は25年ぐらい前の流行じゃないか?
- 273 :
- >>272
今流行ってるのはなんですか?
なぜゼロから作るDeepLearningに紹介されているにですか?
- 274 :
- DLニダー
- 275 :
- BP法もいいけど他の方法も知っとけ
- 276 :
- 原理が難しいアルゴリズムは研究が進まないからどうせ流行らん
- 277 :
- 流行るか流行らないかの問題じゃないだろ
- 278 :
- DLは簡単か、なるほど
- 279 :
- 非常に簡単な方法
- 280 :
- 流行る・流行らないは結果が全て
機械学習で言えばより簡単により正確な結果が得られるなら流行るし、そうでないなら流行らない
どうせ流行る・流行らないを決める側の人は原理など理解していないので難しいかどうかは重要ではない
- 281 :
- 流行はDARPAが発信源
- 282 :
- 流行関係無く研究させてくれるならコホーネンをやるですよ。
- 283 :
- 連想記憶か、進んでるのかな。
- 284 :
- 今回の流行は、素人でも統計解析のライブラリを呼び出すコードを
つなげればなんかAI、機械学習!の研究が(手軽に)出来るじゃん
見たいな幻想が根底にあったと思うので
簡単さは流行の一要因だったと思う
- 285 :
- アホ
- 286 :
- 底辺裾野は金だけ運んでくればええよ
- 287 :
- 初心者ですで頭おかしいこと言ってるかもしれませんが質問に答えて下さい
損失関数の極小解を出すためのアルゴリズムに確率的勾配降下法などがありましが、今主流なのはなんでしょうか?ライブラリはTensorFlowを使う予定です
- 288 :
- 勉強しろよ
- 289 :
- >>288
答えて下さいよ
勉強足りないのは自覚しています
- 290 :
- >>289
DL
- 291 :
- フレンド関数かな
- 292 :
- フレンドシップ結合か、なるほど
- 293 :
- >>287
SGDは損失関数(loss func)じゃなくて最適化関数(optimizer)な
数式ちゃんと理解しないと学習率の調整が出来ないから、全部ちゃんと調べる様に
- 294 :
- 結局、バックボーンとなる数学的な理論を理解しないと何もできないんだよな。
ライブラリーはあるけど、使うだけなら、パラメータをチューニングするだけなら、
Excel使いと同じレベルだし、技術者でも何でも無い。
AI技術者とかいって客に高い単金を要求しているが、
普通のJavaとかphpのプログラマ未満の技術力しかない。
- 295 :
- そりゃインパクトファクターの多い論文は基礎の理論を展開しているけど
大半の論文は学習方法や既存のネットワークの最適化だよ
- 296 :
- 理論が重要なのはわかるけど、ほとんどの人にとって知りたいのは導出過程よりも結論だけだろうしなあ。
そのうち理論なんか誰も見向きもしなくなったりしないかな?
- 297 :
- 一部の人のものになるだけ
vbaみたいに
- 298 :
- 理論が分かる人が新しい技術を生み出し搾取する側になれる
理論が分からず結果を利用するだけの人はいつまで経っても操られ搾取される側でしかない
- 299 :
- >>296
>理論が重要なのはわかるけど、ほとんどの人にとって知りたいのは導出過程よりも結論だけだろうしなあ
こういう言い訳する人は多いが、導出過程を知ることが大切なのではなくて、
導出過程を通じて考え方を学ぶことが大切なんだよ。
そういう考え方を通じて正しい使い方は分かるのはもちろん、新しい発想が生まれる。
- 300 :
- 道具として使って結果が欲しいか、道具から新しい世界を発展させたいか。
車を使って移動したいか、車を使って新しい社会の仕組みを作りたいか。
目的に敵ってりゃどっちでもいいんでね?
全員が新しい発想しないといけないってこともあるまい、一般に利用しやすくなったのは素晴らしい事じゃないかね。
- 301 :
- 利用しやすくなるのは、技術者だけじゃなくてユーザーもそうだから。
「なんだ!これじゃ〜、AI技術者wwに頼まなくても、俺たちでやれるわ」
で仕事がなくなるだけ。
昔、静的なwebサイト作るのにも、一式30万円も50万円も取られた時代があったが、
今じゃ、その程度の奴はユーザー自身が本見て作るし、ランサーズで1万円も出せば、そこそこの奴作ってくれる。
- 302 :
- 中米の論文数に焦ってるやつが前にいたけどなんか落ち着いてるね
- 303 :
- >>301
AIエンジンができれば誰でもできるようになるね。
- 304 :
- AIエンジンで自動運転が実現できる
- 305 :
- >>299
車にガソリン入れるときにライターで口を照らすような人が減るのは良いね
- 306 :
- AI作ったはwwwwwwwwwwwwwwww
- 307 :
- AIエンジンで自動草刈機作ろう
- 308 :
- _, ._
( ・ω・)んも〜
○={=}〇,
|:::::::::\, ', ´
、、、、し 、、、(((.@)wwwwwwwwwwwwwwwwwwwwwww
- 309 :
- 使うためには原理を理解するのが必要なんだよ。
株予測してみた、みたいのは数値予測させるのに画像分類のサンプルコードをそのまま当てはめて
上がるか下がるかで分類させてるひどいのもある
- 310 :
- それならサイコロ振るのと変わらないな
- 311 :
- 株や為替予測AIを作っている人は酷いモデルが多いね
自然言語AIまで勉強してないから、LSTMちゃんと使いこなせてない
- 312 :
- ここにも来てないか
- 313 :
- >>311
どうせチャートとファンダメンタルズだけ組み込んで要人の発言とか新商品とか新技術の材料は組み込めない。
- 314 :
- >>313
>要人の発言とか新商品とか新技術の材料は組み込めない
そういうのは技術的にAIに学習させたとしても無意味。
発表前に既に株価に織り込み済みだから。ちょっと株価を研究した奴なら分かる。
情報戦で勝とうとしても、上には上が居て厳然たる情報の非対称性もあって勝ち目なし。
- 315 :
- 一番確実なのは、明地文男の3点チャージ投資法。
公式サイトにも載っている
それか、サザエさんの視聴率。
株価は半年先の予測だけど、サザエさんは、さらに早い
日曜夕方の視聴率が下がったら、仕事か外食してるから、景気が良くなる
アノマリーもある。
たいてい同じ月に、上下する
ゴールデンウイークには旅行して、秋には東京ゲームショウ、冬には花粉症とか、
株が上がる月が、決まっているから
- 316 :
- まぁ、そういう気づきが大事だね。
従来の発想をそのままAIに持ち込んで、自動化とかいう発想じゃなくて。
俺も色々と発想を膨らませて予測している。
- 317 :
- 新商品や新技術の発表日時を予測できればいいのに
- 318 :
- >>315
サザゑさん連動良く分かったありがとう
- 319 :
- >>317
Rubyじゃないけど発表はクリスマス前とかボーナス前やろ
- 320 :
- scikit-learnとTensorFlowによる実践機械学習っていう本買った
ゼロから作る奴との橋渡しになればいいなぁ
- 321 :
- 自然言語処理AIの勉強が必要なのは、別に「要人の発言を組み込め」っていう意味じゃなくて
Seq2SecとかAttentionとかの言語モデルの使い方をちゃんと理解してからLSTMで波形分析しようって意味なんだけど…
- 322 :
- 0年後CPUの性能が飛躍的アップしたらまた合おう
- 323 :
- キズナアイが人工知能と聞いたんですが、ほんとですか
- 324 :
- 中の人いるやん
- 325 :
- 愛(Ai)ちゃん
- 326 :
- 人工知能=人工的に作られた、知能を持っているように見えるもの
なので基本的に受け手側の考え方次第で何でも人工知能になり得る
- 327 :
- ライブラリを利用できるだけのプログラマーの間でも
特徴抽出のセンスだけで腕に相当の差がつきそうなもんだけど
そういう組み込み系のエンジニアの年収はどのあたりの幅に収まるもんなんだろう
- 328 :
- 画像分類のテストやろう
- 329 :
- 報酬は国際標準ぐらいはいただけるのでしょうか?
- 330 :
- 特徴抽出のセンスってデータの前処理の話?
そのデータを長年扱ってて背景知識あるかどうかだよ
- 331 :
- そっか、自分いま機械学習の勉強を進めてて
数学・統計学まわりから先にがっつり勉強したから機械学習本体の
学習がまだ進んでないような段階なんだけど、この先どの程度の年収の職に就けるのか
不安を感じている。これは世間で言われているほど美味しくないんじゃないか
- 332 :
- 残念ながら日本では作文能力が高い方が収入が高い
- 333 :
- >>331
お前にとって美味しいかは知らないが実力があれば今と今後、最も稼げるのはほぼそうだろ。
プロ野球とか芸能人とかも年収差はある。
- 334 :
- >>331
>>246
君には輝ける未来が待っている(適当)
- 335 :
- 日本で一生過ごす前提なら結局スペック高かろうが低かろうが大して収入なんて変わらない
- 336 :
- 情処を取ったほうがよさげ
- 337 :
- >>336
それは最低限の素養では?
- 338 :
- >>331
正解
- 339 :
- 職に就かずに稼ぐ方向で頑張れ
- 340 :
- 特殊スキル持っても一般では理解されず、学歴で見られる
漏れも出来るなら職に就かず稼ぐ方を進める
- 341 :
- 日本である程度稼いだら東南アジアに引っ越してダラダラと暮らしたい
- 342 :
- 年収600万くらいかねえ。1エンジニアで1000万とかまず超えない
- 343 :
- 日本では文系職でも理系職でも皆同じようにしか昇給しないからな
表向きは成果主義導入してても成果による差はごくわずか
公平感を保つためと言うがやる気のある人からすればむしろ不公平感しかない
- 344 :
- どうせもらう側に行けないから気にすんな
- 345 :
- 現時点でAIデータサイエンティストとして院卒レベルの人材じゃないとノーチャンだよな
冷静に考えて足りないのは、機械学習の上辺を理解してる営業だけ
技術職のキャパはすでに上限ギリギリいっぱいな気がするわ
英語がネイティブレベルならまだ話は別かもだが
自分で事業起こすにしても
凄まじい計算資源がないとまともな事業展開は無理だから、超大手の研究や投資に依存せざるを得ない
量子コンピュータの機械学習への組み込みに成功したらなおさらそれが加速する
割と今ってディストピアまっしぐらじゃね?
- 346 :
- 普通のPCで動くものじゃないと普及しないよ
- 347 :
- んなこたーない
- 348 :
- データサイエンティストって職業成り立ってない。
雑用ばかり
- 349 :
- 8割雑用らしいね
- 350 :
- 雑用に追われない仕事なんか無いよ。
- 351 :
- 確かに
- 352 :
- 問題はデータサイエンティストとしての知識を披露したいのに、結局凡人が理解出来る範囲しかデータを提供出来ないということ。
分かりやすくするためにいろいろ削った結果、言いたいことがほとんど残らない。
とりあえずクライエントが望みそうな方向に誘導するのが一番無難。
- 353 :
- そういうのは論文か本かブログで発表するといいと思いう
- 354 :
- いやだからお客様のデータを論文で披露するわけないやん
- 355 :
- >>352
なるほど
- 356 :
- >>354
まともなAI(ω)なら会社変われって結論を出すと思うが
おまいは従えるか?
- 357 :
- DSの仕事は日本にはそうそうないらしい
面接や就職説明会ではどの会社もいい部分ばかりみせるけど
優秀なDSを本当に活用できる企業はほんの一握りで、ほとんどのDSはアナリストのよう
な雑務をこなしながら、いつか良い職に就ける日を夢見て独学で頑張ってるようだ
でも英語を勉強すれば外資にいけるし、英語が出来なくても本当に優秀なDSなら、学歴か実績があれば最近はいろいろといい求人があるんじゃないかな
- 358 :
- 機械メーカーの研究開発職であちこちセンサー付けた自社製品の機械をひたすら動かしてデータ収集して
種々の解析して異常発生の兆候を見るための手法の開発してるけどこれはデータサイエンティスト?
そうだとしたらほとんどの研究職はデータサイエンティストだろうけど
- 359 :
- 客のデータで重要な知見が得られたならそれは当然客が競争優位に立つために重要なので詳細を公表できるわけがない
自分の成果を第三者にアピールするなら自力でデータ集めからやるか、個別案件に依存しない新たなアルゴリズムの開発、公の機関との共同研究ぐらいしかないだろう
- 360 :
- >>349
というかもうすぐ失業者が出るとか?
- 361 :
- この分野もプログラミングと一緒で
何か個人で成果を出さないと認められない世界になってきた
ということでいいのでしょうか?
- 362 :
- そんなことないさ
極端は話、論文を読んで実装できるレベルで数学、数理統計学、ベイズ統計、機械学習の理論をしっかり理解し、
pythonおよびライブラリを有名どころ一通り使いこなせて
C++かjavaでアプリを自由自在に組めて、rubyにも精通していて、SQLでDBの操作が出来て、前処理の実務経験も豊富で、本職のDSのようにRを使いこなせたら、年収1500万ぐらいは楽に稼げるだろう
はじパタ本ぐらい読んでこの業界に入る人にとっては、そんなに遠いところでもないはず。自分はまだそこまでたどり着けてないけど
- 363 :
- ↑うわーキモい
- 364 :
- rubyって精通してる必要ある?
- 365 :
- 無い
- 366 :
- この業界で出来る人、ほんとにそのぐらい出来るぞ
rubyはとりあえずアプリを組めれば何でもいい時にできるといいらしい(らしい)
- 367 :
- pythonできるならpythonでやればいいだろう。
- 368 :
- 案外遠くないかも
そこに自由自在に英語を使いこなすがあると、キツかった
- 369 :
- >>367
c++は使えた方がいい。
- 370 :
- ruby持ち出すあたりと言語の数でアピールするあたりは土方
- 371 :
- >>362
9割方できるのに年収5割もないんだが
- 372 :
- 単なる妄想なんだからマジレスすんな
- 373 :
- >>371
どうせ転職前だろ
- 374 :
- >>369
rubyでやるようなことをC++でやるのは時間の無駄だろう
- 375 :
- 論文読んで実装できて、DBを操作できて、画像なり自然言語なりひとつ専門分野を
持っていれば、年収1200万以上の求人がちらほらあるな
まあ、そういう奴は他にもいろいろと出来ることがあるんだろうけど
- 376 :
- rubyやpython等のスクリプト言語はあくまでスクリプトでありその場で結果を確認しながらデータを操作するのに向いている
C等のコンパイル言語はその場で確認といった用途には向かないが最適化すれば実行速度は圧倒的に高速
なのでスクリプト言語でデータを弄りながら方針決めをして、今後同様の操作を何度も行うのであればコンパイル言語でプログラム作成するのが正しいやり方
- 377 :
- Rってまだ必要?
- 378 :
- DSならほとんどの職場でRはメイン言語
機械学習エンジニアでも、DSと職務の分業が進んでなければ、なんだかんだで
Rを使う仕事が回ってくることが多い
てかうちがそう
- 379 :
- 日本なんかpythonエンジニア用無し。
アメリカは高収入なのに。
日本は未だCOBOLエンジニアの需要がある。
- 380 :
- COBOLは退職間際のオッサンなら無理に他の言語学ぶ必要もないが、20代・30代がやるのは危険過ぎる
確実に現役中に需要がほぼ皆無になるのが確定してるから
- 381 :
- あの何でもコピーして済ませようとする性癖が身につくと
他の言語では3流以下だしね
- 382 :
- アメリカでもCOBOL使ってそうだけど^^;
- 383 :
- 500以上の求人は管理職クラスになってくるからきついよ
- 384 :
- DSはともかく、機械学習のエンジニアの求人は、1000以上でもスキル要件自体はそこまで厳しくないような…
まあ。中身よく分からないけどライブラリ実装できます、みたいな奴は論外としても。
大学一年程度の数学を理解していて、はじパタ本に毛が生えた程度の、機械学習の理論に関する理解があって、自分の専門領域を自然言語処理でも画像認識でもとにかく一つぐらい持っていれば、それでスキル要件を満たすんじゃないか
もちろん実務に関する細々としたスキルも、持ってること前提の話だけど
- 385 :
- 現実見ような
- 386 :
- 雑談スレ、真板でやれ(常套句)
- 387 :
- >>379
米国も一緒よ
- 388 :
- アメリカの場合、別にPythonが使えるから高収入なわけではないしな
- 389 :
- 流石にpython使えば収入上がるなんて夢想するバカはおらんだろ
- 390 :
- 技術力の豊富さ≠年収ではない
この分野はいかに顧客を騙せるかが年収を左右する。
- 391 :
- わかる
- 392 :
- pythonのスキルが年収に相関があるんじゃなくて
機械学習的な知識が年収に相関あるんじゃね?
てきとー
- 393 :
- 数学+統計+機械学習
+python+DB+クラウド+extra …… これで年収600ぐらいかな
自然言語処理とか、そういう専門領域を身に着けて、給料がすこし増える感じ
年収1000を超えている奴らは普段いったい何をやっとるんだろう
- 394 :
- google辺りに勤めてんでは。
- 395 :
- よほど機械学習で変わるような業務でないと給与は上がらんでしょ。netflixみたいに推薦がなければ事業が成り立たないような
- 396 :
- 元々そんなに年収高くないサラリーマンやってる前提の話なのか。
その会社にいたままで高所得は難しいのは当然だとおもうが。
転職やフリーは考えないのか。
たとえばテレビ業界とか年収高いほうだろうが、フリーアナウンサーになるのがいるが。
- 397 :
- 実際そうなんだよね。求人見ると、よさげなところがちらほらある
何度か転職を繰り返して、いろんな刺激をもらって成長していくうちに、突き抜けるんだろうか
- 398 :
- 【開戦空振り、XDay″】 トランプが米朝戦争、回避したので、九条改憲も、説得力を失った m9(^Д^)
http://rosie.2ch.sc/test/read.cgi/liveplus/1528170899/l50
- 399 :
- >>394
高級貰ってんだろうな、うらやま
- 400 :
- なんでうちのパパ年収1千万超えてたの?
営業マンのくせに
- 401 :
- 営業は売れば売るだけ稼げる種類のものあるからね
- 402 :
- おいしい法人相手の営業とか
- 403 :
- 金の引換券とか和牛の権利を売りつけていたんじゃね?
- 404 :
- >>393
この場合の数学+統計+機械学習ってどのくらいのレベルでしょうか
BishopやMurphyのテキストがちゃんと解読できるくらい?
- 405 :
- なんで機械学習ってインタプリタ主流なの?
遅いじゃん
- 406 :
- https://youtu.be/zYKOL5RpVbo
【大学数学】ベイジアンネットワーク【機械学習】
概出?
- 407 :
- 全然ネットワークじゃないじゃん
- 408 :
- >>404
最新の論文を三日ぐらいで読めればOK
わりとゆるい
- 409 :
- >>408
なるほど
あのレベルのテキストだと歯が立たない箇所が多くて
- 410 :
- >>405
Juliaは速いんだけどな。
- 411 :
- コンパイラ使うの面倒だからじゃね。
PDCAを早く回すならインタプリンタが楽でしょ
- 412 :
- 実験的にパラメータちょっと弄って変化確認するならインタプリタが最適
その後実運用する段階ではコンパイル型言語使って作り直してコンパイルした方が速度面で有利だろうけど実際のところどうする人が多いのかは知らない
- 413 :
- Pythonは実行時にバイトコードにコンパイルする。いわゆる中間コード方式
- 414 :
- 結局、機械学習って、
技術追求してもデータに対するアプローチ(指標)が解らないと、詰む?
- 415 :
- どうしてそういう学習をしたのかプレゼン出来ないと
資金源を断たれて詰む
- 416 :
- 研究者レベルのことを求められても困るのだ
- 417 :
- >>415
グーグルのアルファ碁からしてわかってないけど発展してるだろ。
別にはなるが、ディープラーニングを広義に学習方法の自動学習法と捉えた場合。
使う手法が、多層ニューラルネットである必要はないわけだが。このへん進んでるか。
ディープラーニング - Wikipedia
しかし、近年、ヒントンらによる多層ニューラルネットワークの学習の研究や、学習に必要な計算機の能力向上、
および、Webの発達による訓練データ調達の容易化によって、充分学習させられるようになった。
その結果、音声・画像・自然言語を対象とする問題に対し、他の手法を圧倒する高い性能を示し、2010年代に普及した。
しかしながら、多層ニューラルネットが高い性能を示す要因の理論的な解明は進んでいない。
- 418 :
- Wikipediaコピペは馬鹿にされるからやめたほうがいいよ
- 419 :
- 機械学習の個々のアルゴリズムには流行り廃りがあるけど統計学に基づく点には変わりないので
最新の機械学習のブラックボックス化された関数使えるより統計学を体系的に学んでいる人の方が長期的には有利
- 420 :
- これは?
情報幾何への入門と応用
http://www.sci.osaka-cu.ac.jp/~ohnita/2006/inf_geom/sos_dan/book_0403.pdf
非加法的エントロピーを加法的エントロピーにする方法ーAdS/CFT対応の情報幾何バージョンー
http://www2.itc.kansai-u.ac.jp/~afujioka/talk/tanaka.pdf
- 421 :
- CNNとLSTMを"deep"でひとくくりにしていいもんだろうか
- 422 :
- >>413
バイトコードにしたからと言ってネイティブ機械語みたく爆速になる訳じゃないよ
for文とかアホみたいに書いてるよりスッキリnumpy使え
- 423 :
- >>417
ほんそれ
- 424 :
- >>419
いまは実感が湧かないけど、たぶんだけど35歳とか過ぎた頃に違いが出てくるんだろうな
- 425 :
- 50過ぎてからだよ
- 426 :
- うそです
- 427 :
- >>419
わかる
- 428 :
- わからない
- 429 :
- >>420
情報理論は場合の数の加法性の仮定が前提にあるから使えない。
後者の記事は条件が限定的過ぎて使えない
- 430 :
- 機械学習のブラックボックス化された関数うんぬんというけど
数学わからない癖に機械学習のアルゴリズムを組んでる
文系エンジニア的な奴はそんなにいないよなあ
そんな入口そうそうない
- 431 :
- 機械学習ブームがここまで盛り上がるなど予想されていなかったので基礎研究からやってる企業を除いて機械学習の専門家を雇っている企業などほとんどない
バリバリの理系出身だとしても大半は専門外の人間が錬金術的にパラメータ調整してたまたま上手くいっているだけで基礎から理解して使えている人はそうそういない
偶然の産物だろうが適切な出力が得られていればそれで構わないが、基礎が分かっていないと今後新しいアルゴリズムが主流になった時も同様に運任せで錬金術することになる
- 432 :
- とブームが終わった頃にいうアフォ
- 433 :
- だとしたら、アセンブラ出来ない奴、デジタル回路が組めない奴、はみんな基礎が分かってないから
運任せでプログラムを組むべきじゃないなw
要は、各々の世代でどのレイヤーの知識が重視されるか?なんだと思う
今はベクトル数学や統計学のレイヤーとは離れた技術が上の層にどんどん積み重なっていて
そろそろ分業しないと成り立たなくなる時代が来ている様な気がする
- 434 :
- 富士通のZinraiとか、金かけて、宣伝しているけど、
国内企業のAIってどのレベル?
某大手企業のを試用した範囲では、ゴミのような出来。
このスレの連中のような趣味でやってるレベルにも達していない。
「偶発的な適切な出力」という表現があるけど、
恐らく、作っている奴は、「適切」の指標すら解っていない。
- 435 :
- 大手企業つっても零細に丸投げしたの納品したりするから出来がまちまちなんだよ
- 436 :
- 東芝、NEC、オムロン、富士通、日立
みたいなところの研究所からは
まともな研究が出ているけど
それを商品化するところは丸投げするから
変なのが出てくる
- 437 :
- >>436
東芝とNECは会社が危ない。
- 438 :
- 日本のメーカーは組織が疲労している P ドラッカー
- 439 :
- AIで会社を何とかしたら
- 440 :
- AIで会社経営を立て直すには過去の大量の成功・失敗の経営情報が詳細な内部情報とセットで必要であり
それは一社及びそのグループ会社程度の規模では量的に足りなさすぎるので実質的に不可能と考えて良い
- 441 :
- 三菱、神戸製鋼、・・・
- 442 :
- 日産も
- 443 :
- 旧財閥系が全部ダメと
- 444 :
- BIやっても
それを読み解いて
活用できる経営者が居ないとね
- 445 :
- AIは魔法ではない
- 446 :
- CIしよう
- 447 :
- 機械学習って、統計学の横に色んなジャンルが派生的に発展していて
縦に発展しているようなイメージがないんだが
流行り廃りで、いま学んだ知識の大半が今後は通用しなくなりそうというか
業界の人たちはかなり悲観的だよね
- 448 :
- 積み重ねだから役に立たなくなるってことはないよ
- 449 :
- 派生部分しか理解していない人は流行りが終了すれば新しい流行りを1から勉強し直す
根幹となる統計学が理解できていれば新しい流行りの理解も早いはずなので流行り廃りに対応しやすくなる
- 450 :
- 大学程度の数学と物理をやっとけ。できるなら修士レベル。後は後からどうにでもなる。
- 451 :
- あとからどうにでもなるなら、高卒でもいいだろ。
機械学習に必要な分だけ勉強すれば。
- 452 :
- 物理関係ないだろ
- 453 :
- 中卒から始めるデータマイニング
- 454 :
- >>451
勉強などやる気さえあれば誰でもできるがそもそも高卒という時点で機械学習エンジニアとしての採用はほぼ閉ざされるから
企業のリソース使わず自力で機械学習でビジネス起こす当てがあるなら話は別だが
- 455 :
- 数理工学、数学、統計
が一番採用したいけど
そもそも人口が無いから微積と線形代数だけ分かれば後は頑張ってみたいな感じだよ
- 456 :
- 数学・物理の出身者は、物事を抽象化して捉えるセンスが群を抜いてる。
論理性と違って鍛えることが難しいし
- 457 :
- ホルホル
- 458 :
- >>456
それほぼ一緒だとおもうが。たとえば、不完全性定理とか数学的抽象度が高いし論理的だろ。
不完全性定理
数学を基盤にし、証明を積み重ねていけば、
いつかは「世界のすべての問題を解決するひとつの理論体系」「世界の真理」に到達できるのではないかと信じられていた。
さて、1930年頃のこと。
数学界の巨匠ヒルベルトは「数学理論には矛盾は一切無く、どんな問題でも真偽の判定が可能であること」
を完全に証明しようと、全数学者に一致協力するように呼びかけた。
これは「ヒルベルトプログラム」と呼ばれ、数学の論理的な完成を目指す一大プロジェクトとして、当時世界中から注目を集めた。
そこへ、若きゲーテルがやってきて、「数学理論は不完全であり、決して完全にはなりえないこと」
を数学的に証明してしまったから、さあ大変。
ゲーデルの不完全性定理とは以下のようなものだった。
1)第1不完全性原理
「ある矛盾の無い理論体系の中に、肯定も否定もできない証明不可能な命題が、必ず存在する」
2)第2不完全性原理
「ある理論体系に矛盾が無いとしても、その理論体系は自分自身に矛盾が無いことを、その理論体系の中で証明できない」
http://noexit.jp/tn/doc/fukanzen.html
- 459 :
- ゲーデル・エッシャー・バッハ
- 460 :
- >>454
実は機械学習のエンジニアの求人は学歴不問のところが多い
バイトから入るという裏技もあるから、やる気さえあれば高卒でも余裕でなれる
独学→バイト→正社員→お金を貯めて研究者
理論的には、無理ではない
- 461 :
- あと自分は絶対にやらないけど
上でも言っている人もいる通り、やっぱり物理は出来た方がいいんじゃないか
機械学習+機械工学で年収2000万ぐらいの求人がちらほらある
たぶん自動車でも作ってるんじゃないか
この分野で突き抜けた年収が欲しければ、機械学習ともう一つ専門分野が必要だな
自分のいる世界とは別世界だけど
- 462 :
- 脳内
- 463 :
- 学歴不問って職務経歴だけ見ますって意味だよ。
金貯めて研究者ってどうすんのよ
大学編入するとこから始めるのか?
あと物理と機械工学は別だから。
- 464 :
- >>463
>>あと物理と機械工学は別だから。
そこらへん詳しくないから適当書いたスマン
でもバイトで職務経験つけて、そのまま正社員になった奴はうちの会社に一人いるぞ
年齢的に、院試を受ければ、研究者にもなれるんじゃないかな
- 465 :
- 社名を教えて欲しいわw
- 466 :
- >>451
高卒には越えられない壁がある
よほど貧乏で大学行けなかったとかでなければ
理解できる頭あれば大学卒業(あるいは修士以上)してるはずで
高卒が高卒たる所以
- 467 :
- 言うか!
DS系なんだけど、ぶっちゃけネットでググるとすぐ出る
ただ、バイトをたくさん取ってるわりに、フリーターから定着できたの俺が知る限りひとりだけ
他にもいるのかもしれないけど
- 468 :
- >>466
毒親もな。連帯保証人無しでは学校も行けない。入院も出来ない。
- 469 :
- 中高生の時に虐待を受けていたからまともな精神状態で勉強に集中できなかったとか、
まあ色々なパターンがあるよね
高卒から這い上がってくる奴はいることにはいる
そういう奴をまったく見かけないなら、逆にその人が見かけない世界にいるんだろ
- 470 :
- 理学と工学の違いもわからないのに何語ってんの?
- 471 :
- そろそろ、wikiみたいな「集合知」って機械学習で置換できちゃうんじゃないかな
どんなマイナージャンルでも、一人が「こういうキーワードでジャンルの情報集積を」って
指定すれば、入門的なハウトゥや歴史的なインデックスまで作れたり
将来的には検索ワードみたいに随時処理でそれらが出力されたりするんだろうけど、
現段階でも、入力された特定キーワードに関する体系立てた知識の集積は可能じゃない?
たとえば、「ホラー題材のギャグ漫画」くらいだと、概要や歴史的サンプルをまとめられたり
- 472 :
- ↑人口無能↑
- 473 :
- >>471
機械学習は、所詮膨大な過去を根拠にしているだけだから、新しい知恵を生み出すことはできない
- 474 :
- >>473
何事かに対して、どういったジャンルに属する話かと判断して、それを総括するフォーマットを
類似記事から引用する学習は可能だと思う
現状でも、Wikiで項目を作る上で「似たような記事」から構成を引用するのが普通だ
そこそこのマイナージャンルでも、テキストとして情報化されてきている
「データ群の前半に集中する情報を要約して『概要』とする」ことや、「年代と頻出で年表的に
フォーマットを形成する」のも可能だと思う
というか、Wikiの各記事においてすでにこういう「情報をまとめる上での構成」ができているんだから
それ自体を機械学習できるはずなんだよ
- 475 :
- >>474
>現状でも、Wikiで項目を作る上で「似たような記事」から構成を引用するのが普通だ
一言で「似ている」というけれども、「犬と似ている」「猫と似ている」は現状の深層学習で実現できるとしても、
「似ているもの同士をまとめる」はまた別ではないか?
このタイプにおける教師データは成立するのだろうか?
- 476 :
- >>475
「犬と似ている」と「猫と似ている」は、フォーマットとしてほぼ同じ語り口で記事になってると思う
同じようなフォーマットの記事から、頻出単語や構文を教師データとして、関連する情報として
拾うのは単純に機械学習の範囲だと思うけどなぁ
「同じような単語を同じような語り口で記述している記事」が教師データなわけで
- 477 :
- >>476
>「同じような単語を同じような語り口で記述している記事」が教師データ
メタな構造そのものを教師データにできるものかな?
- 478 :
- >>477
むしろそういう「言及」をデータとして扱わないと機械学習の有効性が意味を持たないと思うよ
「○○は△△という意味で□□である」っていう関連を一つの型として学習する必要がある
それをビッグデータから学ばないと、各データを統合で結ぶだけの古典的計算機に過ぎない
- 479 :
- >>478
>それをビッグデータから学ばないと、各データを統合で結ぶだけの古典的計算機に過ぎない
なるほど!
>「○○は△△という意味で□□である」っていう関連を一つの型として学習する必要がある
二項関係から三項関係への進化は、今は出来ていないんじゃないかな?
- 480 :
- Googleが猫の画像を判別させる人工知能を作るだけのために大量の猫画像を必要としたように、
wikiを作るとしたらその1項目毎に猫画像学習と同等かそれ以上の情報をかき集めて学習させる必要があるわけで
話題のcoinhiveみたいに世界中の各人のPCのリソース借りるような方法でもあれば可能かもしれないが特定の企業内だけで実現するには必要な計算資源が膨大すぎる
- 481 :
- Googleが画像から猫を判断させたのは、教師なしのニューラルネットワークによる学習だよ
AIによる学習結果は、その本質を理解しているという意味じゃない
「検索結果の中からざっくり中央値を取る」ようなもんだ
「〇〇について、どこの誰がいつから始めてこういう成り立ちだ」みたいなWikiっぽいレイアウトに
まとめるだけなら、既存のWebページと電子化されてる書籍だけで足りるかと
もともとWkipedia自体、外部サイトでの記述や書籍による出展が求められるわけで
そうした情報がちょいちょい間違ってたりするのも現状と同じ
- 482 :
- 教師なしニューラルネットワーク笑
- 483 :
- SOMに教師っていたっけ?
- 484 :
- 教師なしであってる
somでは無い
ttp://static.googleusercontent.com/external_content/untrusted_dlcp/research.google.com/en//archive/unsupervised_icml2012.pdf
- 485 :
- 高卒派遣で機械設計やっていますが3年やっても年収300がやっとなので機械学習とPythonを学んで年収500万ぐらいになりたいです
- 486 :
- ↑ただの雑務係になるのは目に見えて明らかです
- 487 :
- 付け焼刃の知識は、年収5000万overの人が作った機械学習自動化ツールに置き換えられそうだ。
というか、年収500万ぐらいならpythonだけでも有るだろ
- 488 :
- >>487
pythonって日本では需要が無いのでは。
- 489 :
- 日本の大企業で機械学習やってますと言ってるところはどういう環境で開発してるんだろう?
- 490 :
- 一口に機械学習といってもいっぱいあるけどね。
- 491 :
- 自動制御システムを機械学習という人たちもいるからな
- 492 :
- >>485
マセマみたいな簡単な参考書で、線形代数、微分積分、統計学の知識を大学一年生レベルまで習得
これなら分かる最適化数学、言語処理のための機械学習入門、はじパタ本を読む
プログラミングは、書籍だけで勉強する場合、pythonの参考書を最低五冊
また、英語を勉強して、論文を読めるようにするように
DB、クラウドの知識もほしいし、前処理についても独学しておいた方が採用されやすいだろう
カグルにもチャレンジした方がいいかなあ
あと絶対むずかしい参考書に手を出すな! 絶対だぞ!
- 493 :
- 日本語の情報乏しいのって出版不況と関係あるよな
- 494 :
- むかしから日本は共有知を軽視してきただろ
今更なに言ってんだ
- 495 :
- C言語入門ならいっぱいあるだろうw
- 496 :
- >>492
ご丁寧にありがとうございます
自宅学習がまるでできないのでまずは基本情報を取って自信をつけてみます
- 497 :
- 「〇〇入門」は山ほどあるのにその先を教えるものになると日本語の情報は激減するよな
- 498 :
- どうせ、価値ある一次情報は国外からしか出ないから、まず、英語で良い。
新井女史が人工知能の最高峰な国、Japan。
https://booklive.jp/review/list/title_id/493315/vol_no/001
- 499 :
- 新井女史w
- 500 :
- ステマ乙
- 501 :
- アナリストの履歴書、シティが高く評価する言語は「Python」
https://www.bloomberg.co.jp/news/articles/2018-06-14/PABKZ66K50XU01
今はやりの言語
- 502 :
- >>469
同意。そこらへんのことを本当に知らない人多すぎ。
- 503 :
- で、そういう人は具体的に誰?
- 504 :
- まあぶっちゃけ、自分が思い浮かぶ程度の手法は、エクセル先生でできちゃうし、実務上はそれをわざわざRやらPythonやらでやるインセンティブもないわけで。
ロジスティック回帰とかそこら辺になりゃ意味あるがあまり機会がない。やらんでなんとなく過ごしてる自分が悪いだけ疑惑はあるけどw
https://twitter.com/ikasanma/status/1007588876251160582
- 505 :
- 流石にEXCELとPythonは使い道が違いすぎる
- 506 :
- >>501
背景の緑のマトリックスみたいな画像がpython関係なくてダサすぎる
- 507 :
- Excelは昔から統計分析でも使われてきたし変ではない。
今更と言われるくらいにパイソンも昔から存在したが、注目されるほどではなかった。
パイソンがデータ処理に向いているというのは最近流布されるステマの一種だろう。
インタプリタだからパイソンはデータセットが肥大化すると遅くなるよ。
シティー銀行がデータ分析や人工知能しようが、世界は常に変わるからエキスパート
システムのようなアプリケーションは成功しなかったし、株価予測は原理的にランダムであり
予測不可能なのでAIなどやるだけ無駄。
- 508 :
- データ量肥大化でpython処理が重くなるというならEXCELの場合重くなるどころか開くことすらできなくなるけどね
むしろEXCELとの比較だけで言えばpython使うなら元データを分割して読み込みなど工夫すれば原理的には元データ量に関する限界はなく処理時間もデータ量に比例するだけ
- 509 :
- Excel推しの人ってみんな言ってることがどこかズレてる印象
- 510 :
- 無理矢理EXCELでやろうとする奴ほんとアホ
- 511 :
- というか、EXCELしか使えないからそれしか選択肢ないんだろう
- 512 :
- まず、エキスパートシステムは部分的には成功しているぞ
成果が世の目に触れにくいだけだ
そして、パイソンの株式予測は、データが増えれば増えるほど成功する
あんなの最適化数学の延長で十分
- 513 :
- >>512
>株式予測は、データが増えれば増えるほど成功する
株価が上昇するか、それともアンダーウェートか、それだけでも判定できるのなら大いに役に立ちます!
勝率はどれくらいですか?
- 514 :
- 株価予測は簡単じゃねえわ
当たり前の話なんだが過去は幾らでも説明できるんだけど
未来は「まだおきていない」ので分からんのだ
- 515 :
- 株価は、あらゆる情報を用いたとしても、日経平均などの平均値を超えられないという、予想が信じられてるんだろ。
日経平均を上回る圧倒的パフォーマンスをだしたとしても、一時的であってたとえば100年、1000年とか長期で測れば平均値に落ち着くといった。
- 516 :
- 株価予測が可能かどうかに関する理論・仮説はこれだ。
効率的市場仮説 - Wikipedia
金融経済学における効率的市場仮説とは、市場は常に完全に情報的に効率的であるとする仮説。
効率的市場仮説に従えば、株式取引は株式を常に公正な価格で取り引きしていて、投資家が株式を安く買うことも高く売ることもできないということになる。
すると、銘柄の選定や市場のタイミングから市場の平均以上の実績を得るのは不可能である。
チリジ・マルワラは、市場に人工知能を搭載したコンピューターのトレーダーが増えるほど市場は効率的になっていくため、
人工知能が効率的経済仮説の理論の適用可能性に影響を与えるのではないかと推論した。
ウォーレン・バフェットは効率的経済仮説に反論していて、特に注目に値する1984年のプレゼン「The Supervisers of Graham-and-Doddsville」において、
世界最高レベルの運用投資会社で働く株式投資家の圧倒的多数は、投資家の成功は運で決まるという効率的経済仮説の主張に反論していると述べた。
マルキールは、プロのポートフォリオマネージャーの3分の2が(1996年までの)30年間にわたってS&P 500指数を越える実績を出せていない
(しかも、ある年に実績が高い人とその次の年に実績が高い人の間の相関は殆どない)ことを示している。
- 517 :
- 自分の考えは、株価予測は不可能という効率的市場仮説はほぼ正しいとおもっていて。
ビル・ゲイツとか、孫正義など個人・組織とかの勝手な思い、欲求で大金が動いたとき、
市場の効率性が崩れ、その瞬間だけはチャンスありという理解。
個人の思いは普通は予測できない。本人自身なら分かってるが・・・
しかしそうすると金持ちは大金動かせて、その正確な予測も自身はできてるので常に稼げることになるがどうか。
- 518 :
- 株価に影響を与える全てのパラメータがあればできる
- 519 :
- すまんスレチだが助けてくれ
JavaやろうとJDKをダウンロードしたんだが
インストールパッケージを開くことが出来ませんでした。
パッケージがアクセスできることを確認してください。
またはアプリケーションベンダーに問い合わせ、このパッケージが
有効なwindowsインストラーパッケージであることを確認してくださいと
書いてある。
どうすればJDKを起動できるんや?
- 520 :
- >>519
オラクルのサポート契約結べばすぐ解決するよ!
- 521 :
- >>495
pythonも増えているぞ。
- 522 :
- >>501
FRBのモデルはJuliaで作られているのにな。日銀はmaltab。pythonすらでない。
- 523 :
- >>519
まず正確な情報を書く
- 524 :
- スレチかw
- 525 :
- >>516
考えてみたところ、日経平均やNYダウや為替レートなどいろいろな要素が多く入ってる程、予測できない一方で。
これに反対してるウォーレン・バフェットの理屈も理解できるな。
特に社長個人に注目して、信念とか哲学とか聞いてみるとか、会社見学して社員教育や社員の熱意、やる気を確認するなどすれば、
いずれ(平均以上に)成長できる会社を発見するのはできそうだからな。
そうなると株価予測というより成功者を見つける事になってくるが、これは同一でいいのか。
- 526 :
- >>525
専スレ立ててそこでやれよ
- 527 :
- これが、全てな気がする。
>>株価に影響を与える全てのパラメータがあればできる
株の予測に限らず、必要なデータの種類や指標が解らないと、AIは作れない。
対象ジャンルにAIエンジニアが、逐次精通していくのは無理ゲー。
- 528 :
- アメリカのインフレとその後の崩壊に既に仕込んであるのだろうな大手は
- 529 :
- データの性質をよく知ってるほど強い
どんな前処理したらいいかわからんし
- 530 :
- 上海市場なら儲かるかな
- 531 :
- 株価に影響を与える全てのパラメータがあればって
それあなたインサイダーですわ
- 532 :
- 確かに、原理的にあらゆる情報があれば予測できるとしても、現実的にはオープンにされたデータのみから予測できなければ合法に使えないな
- 533 :
- 株価予想、デイトレード的なものに機械学習を導入するだけなら
本当か嘘かまでは分からないけどアメリカの方で既に浸透しているらしいな
ネットニュースでちょくちょくそういう話が流れてくる
まだ無理なのは長期の予想の方だろう
- 534 :
- 「こういうデータがこう動いたら株価はこうなる」みたいに明示できるなら機械学習なんて不要だろ
そうじゃなくて、全部AIに任せて「理由は分からんけど色んなデータからこれが買いだ」みたいな
説明するとアホみたいな活用が本来の機械学習の強みだろ
「理解」は放棄して「活用」だけするのが正しい姿だ
「株価の上下」という出力を変えて、「株価の変動にどういった要素が組み合わさったか」という部分を
分析するのは可能かもしれんが、それは経済学に寄与することはあっても株取引には不要な要素
- 535 :
- >>519だがwindows10でJDKをダウンロード、ダウンロード後保存されたJDKを
開こうとしても上記のような文が出てきて開けない
ちなみにウィルソフトは一旦OFFにしたり、オフラインでのダウンロードもしたし
Edge以外でfirefoxを使ったりしてもダメだった
- 536 :
- パターン認識と機械学習(PRML)の輪読資料を公開
2018年06月18日 soneoka education, news, readings
C.M.ビショップ他著「パターン認識と機械学習」の輪読資料の一覧を当サイトで公開しました。
詳細はこちらから
http://deeplearning.jp/deep-learning-day18-2/
- 537 :
- 実データで学ぶ人工知能講座(AIデータフロンティアコース)
http://learn-ai.org/about
2018-06-18
平成30年度後期の募集につきましては講座について(応募方法)に掲載しました。
募集期間は7/1(日)〜31(火)となっています。
- 538 :
- 宣伝乙
- 539 :
- >>536
いいやん、これ
- 540 :
- うむ
- 541 :
- >>536
SUGEEEEEEEEEEEEEEEEEE!!!
2chなんてくだらないものを見ていて、本当によかった
- 542 :
- PRMLで引っかかる人って文系なの?
- 543 :
- マウンティング来たー
- 544 :
- >>542
自分は数学専攻だけど雑で読みにくい
文系や工学系の人が雰囲気を味わうのに手頃なんだろ
- 545 :
- 雑ではないだろ、定理証明の形式でないと読めないw
- 546 :
- 微積しか使ってないので工学もへったくれもないw
- 547 :
- >>546
数理工学は工学にあらずですか?
- 548 :
- >>547
たぶん話の文脈を読めてない
工学レベルの数学で十分だろという意味だろ
- 549 :
- かぐるたのしい
- 550 :
- 任意精度で最小二乗フィットをやろうとしてるのですけど、Mathematica以外の選択肢は
無いのでしょうか?
- 551 :
- 任意精度でフィットって反復解法って意味?
- 552 :
- >>551
leave-one-out 交差検証での(最小二乗フィットの)限界(何次元迄だいじょうぶか)を
調べたくて…。
でも、(元データの精度はどうなのって点は置いといて)最小二乗フィットの結果に疑義
が起きない様に、106ビット相当の精度の最小二乗フィットでleave-one-out 交差検証すると、
Wolfram Programming LabのFree planだと8次が限界ですた。
1個外したデータでFit[]して、外したやつで誤差を計算して2乗して和を取ってるのですけど、
何かズルする手段があったりするのでしょうか?
- 553 :
- 「ここ迄やった」変数を用意して、中間結果を書き込んでやれば、
途中からでも計算を再開出来るのか…。←せこい
- 554 :
- とりあえずR使えよ
- 555 :
- 専門鬘した素人な質問だな
- 556 :
- numpyでもScipyでもsklearnでも。
- 557 :
- 機械学習に興味ある新参者ですがマスター教えてください。パーセプトロンの説明だと入力値と重みの計算値を1か0で出すと思うのですが、多層ニューラルネットワークの場合は計算値を活性化関数で近似してその値を次の層の入力値にする認識でokですか?
- 558 :
- おう
- 559 :
- 何に最少事情でフィットさせるのか分からないことには何とも。
- 560 :
- >>552
データ量はどれだけあるの?
- 561 :
- あと厳密解法で求めてるの?
- 562 :
- >>555
偽術者を自任してますw
>>559>>560
500点位の(x,y)のデータ(単調増加)
>>561
Mathematicaで
xl = x^Range[0, 2] /* = {1, x, x^2} */
Fit[data, xl, x]
みたいな感じ(たぶん厳密解法)。
ttp://reference.wolfram.com/language/ref/Fit.html
- 563 :
- >>562
2次多項式にフィッティングさせてるのね。
行列計算で一発で厳密解出るよ。
numpy.polyfit 使えばすぐ計算できる。
- 564 :
- あと、leave one outが重い場合はk-fold cross validationする。
- 565 :
- みんなは普段どの手法をメインに使ってるの?
ホントはガウシアンプロセスのほうが適切なのに
ディープラーニングが流行ってるから
クライアントからDL使えって要求とかされない?
- 566 :
- c++で自作
- 567 :
- c++でNN書いたことあるけど不毛だったわ
- 568 :
- すまん。Cで書いていたわ
なお、カルマンニューロ本なんてN88BASICで書いてあって
流石に悶絶したわ
- 569 :
- >>565
自分がコンサル的な立場でないならそのまま客の要求する手法使えばいい
それで精度が悪くなっても適切にプログラミングされているのならその責任は客にある
逆にコンサルとしての働きも求められる立場なら何が最適なのか説明して説得できなければ駄目
- 570 :
- 展示会で見たdatarobotってツールが忘れられない
- 571 :
- 最小二乗法
負荷気にするときは線形補間
- 572 :
- >>568
マシン語で書こう。
- 573 :
- >>572
アセンブラならともかくマシンコードはオフセット計算が
面倒でな
ef 00 00
c3
- 574 :
- >>568
DL(方法論)の指定をしてくる時点で、目的は、結果ではなく、
流行りのAI技術に投資しましたというパフォーマンスでは?
- 575 :
- 法律的な相談になると思うのですが、
今RPGツクールのような、製作者が作ったものを消費者が遊ぶツール郡を作ってます
その制作の際の素材集めを支援するために、DNNによる画像生成機能を作ろうと思っています
そこで質問なのですが、既存の著作物をそっくりな画像が生成された場合、
権利者から民事的に損害賠償請求や公開差し止め請求をされ、それが通ることがあると思われますか?
1)制作時にキーワードから画像を生成して、その画像データを消費者へ届けるケース
これは製作者が注意を払う責任が出てくると思います
例えば「ネズミ」で「ミッキー」似の絵が出てきたら、それは使ってはいけないと思います
2)製作時にキーワードから画像を生成して、そのキーワードを消費者へ届けるケース
これも、製作時に確認した画像が消費時に現れることが分かっているのであれば、ケース1と同じだと思います
ですが、それが保証されないものだとしたらどうでしょうか?
例えばテスト時には何の変哲もないネズミのキャラクターだったのが、
公開直後のプレイヤーのバージョンでは「ミッキー」になり、
その一週間後のバージョンアップで「ミニー」になったらどうでしょうか?
製作時に消費時のことが分からないケースの延長として、制作と消費が完全に切り離されている場合
例えば制作者はただノベルのようなものを書いて、それを自由に適当なプレイヤーで見てくださいと公開した場合
「ネズミ」という文字で「ミッキー」を表示するプレイヤーがあった場合、プレイヤー側が訴えられるのでしょうか?
そうだとした場合、もし「abcネズミ123」、『ミッキーの具体的容姿説明』、「ミッキー」
というキーワードで「ミッキー」の絵を生成した場合は、どれがセーフでどれがアウトに当たるのでしょうか?
- 576 :
- なんか学習データの権利とか色々あったな。なんだっけ
- 577 :
- 他人の著作物に似たら、ダメ!
ネズミなら、実際のネズミに似ていないと、ダメ
- 578 :
- >>575
スレチ、知的所有権は難しい
- 579 :
- 難しい問題だねえ。国によって違ったりしそう。
- 580 :
- 大小の3つの○のスタンプを投げてたまたまミッキーになっても誰も罰せられないように
仮にそのスタンプを重ねて75度の角度で初速1m/sで投げると高確率でそうなると分かっていたとしても違法性はないだろうよ
- 581 :
- て会社の同僚が言ってた
- 582 :
- >>575は、著作権じゃなく、商標権で、結果的でも似たらアウト。
既存の商標シンボルと類似性が高いものが生成されたら、
自動削除するAIを併用すれば良い。
知的財産権違反の自動検閲は、Google Playでも、とっくの昔からやってるし
- 583 :
- スレチだといってるだろ、馬鹿なの?
- 584 :
- 元データが大体x∈[0,10]なので、xではなくてx-5の多項式で近似してみたら
どうなんだろうと思ってやってみたら、31次式でもleave-one-out 交差検証のMSEが
発散しないよ!(゚∀。)
原点付近に寄せてから近似するのって重要なのかも(あと、機械精度での計算前の
HornerForm[]化も)。
- 585 :
- >>583
スレチと思ってるのは君だけ
ここはゆるい雑談スレ>>1
それが嫌なら黙って他所へ行ってどうぞ
- 586 :
- 自分もスレチだと思います
- 587 :
- #metoo
- 588 :
- 賛成多数で本案はスレチと可決されました。
- 589 :
- >>3
誤差逆伝播法と勾配降下法って役割いっしょなの?
初心者すぎてよくわからん
- 590 :
- 安価は無視で
- 591 :
- 次の方
- 592 :
- 皆さん機械学習やディープラーニングはどのように勉強を進められましたか?
自職場は製造現場なのですが、この手の分野にかなり遅れていましたが今更ですが着手する流れがあり良い機会だと思い勉強を始めようと考えています
pythonの基本的な知識はありますが機械学習やディープラーニングに関してはMNISTを用いた簡単なサンプルなど遊び程度で初歩的な事しかやった事がありません
今はCourseraの機械学習を受講してまずは基礎を学習しています
皆さんの勉強方法など参考に聞かせて頂けたら嬉しいです
- 593 :
- 読める本を読めば
- 594 :
- このスレは世界の頂点に立つ研究者ばかりだから素人さんへのアドバイスは難しい
- 595 :
- 暇人と大学生くらいしかいない
- 596 :
- ↑それはない
- 597 :
- >>592
https://github.com/arXivTimes/arXivTimes/blob/master/materials/README.md
- 598 :
- PRML not recommended. Just kidding!!!
- 599 :
- まぁ以前に比べれば過疎ったよね。月一で見れば十分だw
- 600 :
- ニククエニクニク
- 601 :
- もう機械学習ブームは去った。
ていうか使えて当然の環境がもう整ってるから、どうやって使うの?何ができるの?とかではしゃぐフェーズじゃないんだよな。
- 602 :
- AIブームは終わってるな、次は10年後かな。
- 603 :
- 市場は広がってる
- 604 :
- みんな今の給与水準落としたくないからライバルを支援したくない
でもこのまま行くと日本はAI後進国でオワタ感
というジレンマの中で黙してるんだよ
- 605 :
- イミフ
- 606 :
- >>604
いやもう、手遅れだからw
- 607 :
- 第四次AIブーム=数学の復讐
- 608 :
- >>604
別に日本のために生きているわけでも働いているわけでもないので日本オワタだろうが知ったことではない
そんなこと気にするより自分の能力高めて、仮に日本沈没しても別の場所でも生きていけるようにしておく方がよっぽど賢い
- 609 :
- ディープラーニング学びたいのですが
数学が苦手で、数式がさっぱりわかりません。
お勧めの書籍はありますか?
- 610 :
- 数式が分かるようになってから来てください
- 611 :
- 猫でも分かるディープラーニング
- 612 :
- そもそも機械学習に数学は必要ありません
- 613 :
- ニュートラルネットワークについて
これ結局は一次関数になるのでこんな複雑に分けれないと思うんですけど?
https://i.imgur.com/9EqRKfx.jpg
- 614 :
- 会社でtensorflor使ってる所ってestimator使ってるの?
- 615 :
- >>613
ノード数次第では
- 616 :
- 機械学習に向けて高校数学をやり直しています
とりあえず統計検定2級を目標にしようと思いますが、間違っていますでしょうか?
- 617 :
- 間違ってます
- 618 :
- 統計学に数学は必要だけど機械学習に数学は必要ありません
だから数学とか言っている時点でもう間違い
- 619 :
- 機械学習に統計学は不要ですか?
- 620 :
- 統計学と機械学習は、どういう関係性・違いがあるのでしょうか?
PRMLを読む前の入門本は、どれがお勧めですか?
いっぱい質問してすみません。
- 621 :
- ggrks
ggrks
- 622 :
- >>>620
統計学と機械学習の線引きはちょっとわかりません.
私は,須山敦志さんのベイズ推論による機械学習入門を読んでからPRMLを読んでいます.
ただ,PRMLは,必要になったときに必要な知識をかいつまむくらいの使い方がいいと思います.
また,2章のガウス分布の部分をしっかり読めば,ガウス分布の結合分布や条件付き分布などの計算になれることができると思います.
- 623 :
- そもそも機械学習なんて名前の学習分野がない。
この分野の専門家が勝手に数学の技法持ち寄って纏めて使用してるだけ。
各々の技法を元ネタを辿れば統計学とかに限定されない
- 624 :
- 自説を披露(誰も聞いていない)
- 625 :
- >>自説??
いやいや普遍的に捉えてもいいぐらいの話だと思うけど
- 626 :
- そうムキになるなよ
- 627 :
- AI 後進国らしいスレだなぁ
- 628 :
- 後進国をみんなで認めて
活発に有意義な議論しようぜ
- 629 :
- 金にならないからな
- 630 :
- 機械学習なんて統計数理の一つの応用というか枝葉に過ぎないからな
- 631 :
- でもその枝の先には果実がいっぱいなってる。
- 632 :
- そうでもない
- 633 :
- びわ、もも?うまいよね
- 634 :
- 機械学習すっぞ!!と意気込んで構築手順調べたら、ゲーミングPCクラスのスペックが必要ってことに気付かされて泣きそう。
ワイのmacbookじゃどうしようもない。
俺みたいな人おる?
- 635 :
- そんなあなたにランダムフォレスト
- 636 :
- tensorflowのサンプルを二時間動かして落ちる???メモリ不足でござった{END}
- 637 :
- ワイの貧弱PCじゃNIC学習で3日掛かる
GANなんてやろうとしたら何日掛かるやら
- 638 :
- 政府は、「AI人材の育成」をとか言って、予算を割いているけど、ばら撒き先は、学校。
奴らが育つのを待っていれば、日本は手遅れになるから、
>>637のような奴を救済してやれば良いのに
- 639 :
- クラウドでできんの?
- 640 :
- そもそも機械学習の仕組み自体が人間の脳を理論的に再現することを放棄してマシンパワーで無理矢理解決してやれ、というものなので
それなりの資金使える組織に属さず個人で最新トレンドに追従するのは無理がある
- 641 :
- >>640
その主張は同意できない。
- 642 :
- >>638
お前が救済すれば
- 643 :
- >>640
脳の再現は全脳エミレーションで。
- 644 :
- >>638
高校生までに大学院修士課程までの数学を終わらせろ。
- 645 :
- もう、回帰分析で良いよ
- 646 :
- https://futuretrade.jp/winning_percentage.php
相場予測で上がるか下がるかの精度50%ってほぼ誤差の範囲じゃん
金融関係ほんとひどいな
- 647 :
- >>646
いくら上がる下がる50%で当てると儲かるんじゃない。
- 648 :
- 二択で50%だぞ
- 649 :
- 50%で正解+イクラかの情報があれば俺でも儲けられる。
- 650 :
- >>646に書いてある日経平均騰落予想AI「F-Trader」っていうもののことなら53.8%と書いてるぞ
50%オーバーってことは放置するだけで自動的に儲かるってことだからな
- 651 :
- ある程度のオーバーフィッティングは免れ得ないだろうから
差し引けば完全にランダム
- 652 :
- ディープラーニングに必要な線形代数って行列計算のみ?
- 653 :
- >>650
騰落幅が当たらないと99%騰落が当たっても儲からないことはある。逆も真だが。
- 654 :
- 当んなくて儲からないから
当たるという宣伝で手法を売って儲けている
損だけ
- 655 :
- 競馬の予想屋と同じ(笑)
- 656 :
- まあ本当に的中するなら他人が同じことしたら自分の取り分減るだけだしね
- 657 :
- AI開発者で一番の高給取りはヘッジファンドで株の売買や投資をやっているわけだから、
予測は可能なんだろう。
毎日、数十億動かしているから、0.1%でも予測精度が上昇すれば、十分儲かるし
- 658 :
- PT4
- 659 :
- AIファンドが他のファンドに対して有意に差をつけてるかっていうとそうでもないでしょ
と書いて、調べてみたら実はAIヘッジファンドの平均リターンがヘッジファンド全体の平均回ってた
https://i.imgur.com/jkklRVq.png
- 660 :
- 上回ってた
- 661 :
- 外国のはまともにやってるとこもあるだろうよ
- 662 :
- ゼロから作るDeep Learning 2が出るらしい
https://www.oreilly.co.jp/books/9784873118369/
- 663 :
- プレビュー版で読んだ人結構いるみたいね
- 664 :
- ああなるほど
サポートページから各章のソースは既に落とせるのか
- 665 :
- attentionの項目は読んでみたいけどそれだけのためならいらないなぁ
- 666 :
- データを学習させますって当たり前のように書いてあって、いっぱい読み込んだりしてるんだなーくらいのイメージして資料読んでたんだけどそもそも学習ってなにやってるの?
例えば訓練データに動物の写真と犬とか猫ってラベルがあって、犬の画像には犬のラベルですよって学習してるってイメージであってるかな?
テストデータに対するスコアがあまりに高いと過学習ってのは何となく分かるんだけど、犬の画像には犬ってラベル、猫の画像には猫ってラベル、みたいに学習してるのに訓練データに対するスコアが100にならないケースがあるのはどうして?
- 667 :
- 画像と答えの組み合わせを丸暗記してるわけじゃないから
- 668 :
- 2次元の2クラス分類のデータで可視化すると良くわかるが、境界がハッキリしてなくて混じってる場合が多い。
機械学習ってのは、そういう、人間が見て、こんなん分類できるわけないやろ……ってデータを学習してる場合がほとんど。
訓練データで100%っていうのは、そういう混じった領域にも無理矢理ギザギザの線引いて対処してる状態なので、
実際のデータに対する性能は低いものになる。
- 669 :
- ドヤ顔w
- 670 :
- ドヤァア!!
- 671 :
- どーや
- 672 :
- IKEA
- 673 :
- このゲームやるべき
https://goo.gl/U5BA1Y
- 674 :
- 短縮URL全面禁止決定のお知らせ
- 675 :
- c++でおすすめの参考書ありますか?
c++で学ぶディープラーニングを考えてます
- 676 :
- ない
- 677 :
- >>675
Deep Belief Nets in C++ and CUDA C: Volume 1: Restricted Boltzmann Machines and Supervised Feedforward Networks
by Timothy Masters
Link: http://a.co/4gIcuGN
- 678 :
- http://www.socym.co.jp/book/1079
- 679 :
- ネオゴクニトロンって今でも使えるの?
- 680 :
- 福島先生か技研に聞けよ
- 681 :
- >>677
良いですねありがとうございます!
- 682 :
- 機械学習を標榜しておいてpythonではなく
javaやC#、C++を募集してる求人多すぎぃ
それはつまり既存の有用なライブラリを全部C系やjavaで実装しなおせってこと?
それとも
「pythonなんぞ高級言語が出来るやつなら余裕やろw
どうせ処理速度上げるラッパーやGUIは高級言語で作るんやしw」
みたいなノリなの?
- 683 :
- C#じゃあ、機械学習やらないな。
- 684 :
- >>682
pythonよりそっちの方が人口多いからとにかくプログラマー集めて教育してpython使えるようにするつもりなんじゃないか?
- 685 :
- 求人広告の文言なんて人事部やら広告屋やらが間に入ってることくらい分からないのかなぁw
- 686 :
- 働いたことないんだろ
- 687 :
- 「とりあえず機械学習」みたいなノリだろう。
- 688 :
- 環境で言語決まってるからどうにかしてくれってことでは
- 689 :
- >>684
ぺちぱーやぶいばが来てもうざいから
魔除けで書いてあるんだろ
- 690 :
- C#ありならVB.NetもOKだな
- 691 :
- VB.Net使えるのにC#使えません、なんて人はあまりまともなプログラマーではない可能性高いから相手にしたくないけどな
- 692 :
- VB.Net使えるのにC#使えません
なんて言うまともじゃない人が多くて困る。
- 693 :
- VB.Net使えてもC#使えない人なら応募要項に反してるので首に出来るから都合がいい
- 694 :
- いいかげんにスレチ
- 695 :
- 応用が必要なAIの開発を請け負っている所って、
専門ベンチャーや大学以外に有るのかな?
富士通やNECは、キラーパスできる下請けがいないから、
前例豊富な案件しか回せ無さそうだ
- 696 :
- キラーパスできる下請け持ってる会社って何処?俺も下請けに超絶スルーしたい。ちょwQBKみたいな。
NTTデータとか?NECや富士通も似たようなもんじゃないの?
- 697 :
- >>696
QBKはスルーしてないぞ
バカじゃね
- 698 :
- Pythonでプロトタイピングして、モデルができたらプロダクションはJavaとかC#で組み込むんだよ
- 699 :
- 数理とかは吸収されたんじゃなかったっけ
- 700 :
- Deep Learningの輪読資料を公開
2018年07月12日 soneoka education, news
Ian Goodfellow 他著「Deep Learning」の輪読資料の一覧を当サイトで公開しました。
詳細はこちらから
http://deeplearning.jp/seminar-2/#1515565927378-9a11fdc4-798a
- 701 :
- 既出
- 702 :
- 【裏切られた、安保″】 イラン核施設 ←(2010,11)―<サイバー攻撃>―(2011,03)→ 福島原発
http://rosie.2ch.sc/test/read.cgi/liveplus/1531447465/l50
アメリカと断交すべき
- 703 :
- fast.aiのライブラリは既存のライブラリに比べてどう優れているのでしょうか?
速度?精度?メモリ節約?
- 704 :
- 教育用
- 705 :
- ユニバーサルトランスフォーマーで自然言語は一区切り付いたな
全ベクトル再帰+タイムステップ&ポジション付与
https://arxiv.org/abs/1807.03819
- 706 :
- わざわざ独立して下請けとかやりたくねーなぁ
- 707 :
- 深層学習に仮説など必要ない。膨大なデータがあれば
そのデータを検証するだけでいくらでも有益な結論を導き出せる!
みたいこと言う輩が最近多いなあ
無理なんだけど
- 708 :
- 深層学習は自分はしたことないけど、勾配消失してるのか結構学習失敗するみたいね。
- 709 :
- そもそも入力ベクトルの各成分が独立性・白色性強いと良い結果はほとんど出ないよ
- 710 :
- つまりは株には使えん
- 711 :
- AIを株の売買に使って儲けている奴は確かに居るけど、
正しい判断を下す為の道具として使っているだけ。
AIにどれだけ精通しようと、素人が出る幕は無いので、大人しく、投資ファンドに雇って貰おう。
- 712 :
- 無理無理(笑)
- 713 :
- 投資ファンドが素人を雇うwww
- 714 :
- 学習機に突っ込む前に恣意的にある程度データ整形する必要があるんだが、
バカはとにかく突っ込めば結果出るんでしょ?とか思ってる。
- 715 :
- いや突っ込めば結果出て来るだろ
- 716 :
- 株は個人で買える金額に限度があるし
仮に限度無く買えるならそもそも相場を支配出来るやろ
- 717 :
- 限度なく買えるぐらい資金あるならわざわざ運用などしない
- 718 :
- 私立文系卒エンジニアだけど、機械学習とかデータサイエンス興味ある。
数学力どれくらい必要???
- 719 :
- ちなみに自分のスペック
32歳
学歴
ーーー偏差値60程度の私立文系学部卒
実務経験
ーーー汎用機(COBOL開発、保守)エンジニア歴5年半
ーーーエンジニアと無関係の総合職1年
資格
ーーー応用情報技術者
ーーーデータベーススペシャリスト
ーーーネットワークスペシャリスト
スレ見てる感じだと、クラウドとか重要らしいから、ネットワークスペシャリストの勉強通して得た知識役に立つのかな?
面白いから実務にあんま関係ないけど勉強してましたが
機械学習なら活きる??
数学は高校二年で捨ててしまった。
センター数1Aは平均点程度で、数2Bは20点くらいしか取れなかった覚えがある。
- 720 :
- どうとでもなる
- 721 :
- ならないのが現実
- 722 :
- >数学力どれくらい必要???
質問の意味がよくわからない
- 723 :
- そのくらい自分で調べて準備できないなら無理だから諦めろ
- 724 :
- 馬鹿には無理(テンプレ)
- 725 :
- 研究者になって論文発表するのでなければ、>>719のスペックが理解できる範囲で十分
- 726 :
- 実際アドホック分析ならExcelとSQLくらいで十分
- 727 :
- ディープラーニング検定ってどうよ?
- 728 :
- 仕事以外で機械学習勉強された方はいますか?
最近勉強を始めてまずはアルゴリズムの概要や基本的な部分の理解を進めてるのですが、演習みたいな物もやってみたいなと感じているのですが、独学で勉強された方はどのように身につけましたか?
- 729 :
- >>728
https://www.coursera.org/learn/machine-learning
- 730 :
- 有料
- 731 :
- >>728
魚の本
- 732 :
- >>728
英語が読めればfast.aiやkaggleのtitanicチャレンジ
読めなければQiitaなどで初心者向けにコードを載せている人や
kaggleの解法を解説している人がたくさんいる
手元にExcelぐらいしかなければブラウザでh2oを動かすとか
- 733 :
- >>729
これ、英語解説じゃないのか?
- 734 :
- >>728 です
レスくださった方ありがとうございます
courseraは先月始めてみました
スケジュール的には大丈夫かと思ってたら10分の動画ですら理解するまで1時間以上かかって全然進まず、テストも1週目から全然分からずで自分の理解力の無さに絶望しました
kaggleは聞いたことなかったのでQiitaを見ながら進めてみます
- 735 :
- 無料
- 736 :
- コーセラやってたけど俺も予定時間よりとんでもなくかかったし何より1週目のテストの問題の意味が分からなくてそこでやめた
動画見たときは分かったつもりだったのにテストは答えられない、質問の意味すら理解出来ないで自分に絶望したわ
いやー無能はつらいっす
- 737 :
- ♪ コーセーラ、コーセーラ
♪もーひーとーつーコーセーラ
- 738 :
- わからなくてもとりあえず飛ばして先進めばいいのに
- 739 :
- 大学行って、嬉しかったが、いつも出てくる講義はコーセラ
今日もコーセラ、明日もコーセラ、是ぢゃ年から年中コーセラ
- 740 :
- やがて中年コーセラ
- 741 :
- 大学行ってコーセラってどういうこと?
授業料の無駄
- 742 :
- 教授が書いた教科書買わされた挙げ句、授業がつまらなくて結局サボるより良心的
- 743 :
- >>741
https://youtu.be/aY66ixyTdZI
- 744 :
- コーセラ化粧品歌謡ベストテン
- 745 :
- >>744
宮川泰 丸木陽子
- 746 :
- 井上コーセラ
- 747 :
- 線形代数ってさ、ベクトルの復習みたいなのから始まって、加法、定数倍とかなんだ簡単じゃんとか
思って進んで行くと、なんか急にわからなくなる断絶感があるんだけどいい本ない?
- 748 :
- 線型代数入門 斉藤
- 749 :
- 高校数学向けに洗練された範囲とそうでない範囲の違い
- 750 :
- >>749
高校数学で固有値固有ベクトルってやったっけ?
- 751 :
- 算法大全指南車
- 752 :
- >>750
うちはやった覚えがある
- 753 :
- Courseraの機械学習の有名なやつ、Pythonでやってくれたらいいのに
- 754 :
- >>747
線型代数 長谷川浩司
線型代数学 佐武一郎
- 755 :
- 線形代数は大学で講義受けてた頃はひたすら新しい定理を出して証明するような感じだったから意味不明だったけど
要は大量の連立方程式を解くための方法を工夫しているだけだと考えればそれほど難しくはないと思えるようになった
- 756 :
- 最近PAP-1がPAPPに見えるのが気になって仕方がない
- 757 :
- >>755
後半は勘違いしてるよ
- 758 :
- そうだね
- 759 :
- つーか機械学習に数学なんていらない
- 760 :
- goto 612
- 761 :
- 数学いらないなんて言ってると
仕事なくすよん
- 762 :
- >>254
本人に渡るのは3分の1以下が相場じゃないか?
80万で発注してるとしたら、本人に渡るのは27万ぐらいで、税金やらなんやらで手取り20万強といったところ。
だから、使ってるほうは高い金払ってんのになぁ、となり、使われるほうは、大して貰ってないのにあれこれ言われんなぁ、となる。
- 763 :
- 機械学習に数学は必要だけど、テストじゃないんだから、数式が解けることがゴールじゃない。
数学や物理で博士号持ってる奴は理解度が全く違うと思う。
- 764 :
- つまり数学的側面の理解は大前提ということ
- 765 :
- 数学はディープラーニングだからな。
数学は計算して答えが出るようでは駄目で、問題が出ると
答えが勝手に出てくる脳作りが一番大事。
- 766 :
- 暑さでやられてるw
- 767 :
- カーブフィッティングか判断するには統計的知識は必要だよな
- 768 :
- >>762
公務員がピンハネしてる総奴隷社会
- 769 :
- kerasを使い、かつ新たな機械学習モデルを作らないならば
数学は必要なし
それ以外は必要
フィッティングも可視化すれば形式的に判断できるからね
Tensorflowでもkerasの使用を推薦してるから
需要過多の現状、ライブラリ知識だけでもいいんじゃね
どうせそのうち新たなモデル自体をMLで作るようになるしな
- 770 :
- python+vimキーバインドでデータ解析するための環境を模索してるけど結局ブラウザで実行するjupyter notebookが一番快適だな
pycharmがいいという記事を色々見つけたから試したけどjupyter notebookとの連携ではvim拡張がmarkdownセルで効かなかったりセル間移動に使えなかったりでブラウザ版には敵わない
- 771 :
- 数学勉強するほうが手っ取り早い
- 772 :
- 超初心者だけどkaggleやりたい
どうやって勉強すればいいんだ
- 773 :
- kaggleやりたいにme tooだ
微積→線形代数→大学一年程度の統計学→
最適化数学の基礎→はじパタ本→自然言語処理の基礎→
pythonの入門書→ゼロから作るdeep learning(now!)
もうそろそろ、kaggleをはじめられますかねえ
アカウント作ってみたけど、とっかかりが分からん
教えてエロい人
- 774 :
- kaggleはtitanicが入り口
公開されているkernelで良さげなものをforkするとか
ダウンロードしてローカルまたはクラウド上で
パラメータを変えたり
欠損値の補完の仕方を変えたりすることから
始めてみればいいと思う
titanicの解説は日本語でも掃いて捨てるほどあるし
敷居が高いとは全く思わない
- 775 :
- >>774
ありがとう。なるようにしかならないし、やるだけやってみるわ
- 776 :
- 宣伝乙と言われるかもしれないけど
noteで初心者向けtitanicレクチャーみたいなやつ売ってる人いたよ
それだけ本買う金あるなら買ってみたら?
あとド初心者ならSIGNATEの方がおすすめ
- 777 :
- 大学の数学の内容ほとんど忘れてるレベルなんですが、kaggleとかやってみたいです
スレざっと見たんですが、SIGNATEとかやった方がいいんでしょうか?
一応東大の松尾ラボのGoogle Driveに保存してある、講座があるんですけど、それから始めるべきか?
数学をやり直すべきか?
どっちがいいでしょうか?
- 778 :
- 諦める
- 779 :
- >>778
カーネル関数も理解できてない癖にRよ
- 780 :
- >>779
お前から先にRよ、カーネル関数(笑)
- 781 :
- 最低限、微積と線形代数
- 782 :
- 確率偏微分
- 783 :
- カーネル関数って、非線形写像の時に出てくるアレか
線形代数をちょっとかじってればその場で理解できることだし
単語知らないぐらいならなんとかなりそうなもんだけど違うの
- 784 :
- どっちがいいかとか聞いてる奴は自分で学習効率も測定できないアホ
- 785 :
- >>781
ベクトル解析
- 786 :
- ベクトル解析は必要かな
勾配とかナブラとか、そういう事を漠然とわかっていれば、とりあえず論文は読めるよね
いらない気がするけど自分が大したもんじゃないから実際のところは分からん
- 787 :
- どうせ証明なんて自分でしないんだから
計算術だけ判ってればOK
- 788 :
- 機械学習に数学はいらない
ベクトル解析もいらない。そもそも>>786からしてどうみてもベクトル解析理解してないw
- 789 :
- 機械学習の線形代数なんか単なる計算テクニックに過ぎないわけだが学者さんは難しく考えたがるよね
テクニックじゃなく本質的に重要なのは統計学
- 790 :
- >>786
俺もベクトル解析わかってないけど、まあ論文読めるよと言いたかっただけだ
だから必要ないんじゃないかなーと思ってるけど
でも十年後は分からないよね。なんとなく複素解析とか、フーリエ解析とかやっておいた方が良さそうな予感。やったことないけど。でも音声認識とかまだ実務では中々つかえないけど将来的には食える技術な気がする。直観
- 791 :
- >>789
例えば問題によっては自分でペナルティ項考えたりしないといけないと思うけど、そういう時にどう計算すればちゃんと解が求まるかとか考えるには線形代数の知識や数値計算のテクニックとかは要るよね
- 792 :
- ゼロからともう一冊読んだけどディープラーニングは数学はいらないよ。
ディープラーニングは感性で考えられてるからね。
- 793 :
- アホ参上
- 794 :
- 数学要らない厨しつけえよ
- 795 :
- 実際いらないのだから仕方がない
- 796 :
- いらないものをいると主張するやつの方がしつこい
- 797 :
- 不良などの要因分析によく使われるアルゴリズムを勉強したいのですが、決定木が適しているのかなと感じたのですが、他にはどのようなアルゴリズムがありますか?
- 798 :
- アキネーターみたいなやつかな
- 799 :
- ヤンキーアルゴリズム
- 800 :
- ベイジアンネットワーク?
- 801 :
- ベジタリアンって読んだ
アホや俺
- 802 :
- tensorflow 使うだけなら多変数関数の合成関数の微分だけ知ってりゃ使える。
ただ結果の良し悪しを考えるならガウス分布、大数の原理くらいは知っとかなきゃまずい。
- 803 :
- ベンダー企業で研究開発してる奴らなら数学も出来ないと辛いことはあるだろう
逆に、極端な話、機械学習エンジニアとは名ばかりのただの組み込みエンジニアなら
数学どころか理論まわりも分かってなくていいんじゃないか
結局はピンキリ
- 804 :
- ゼロから読んでtensorflow始めたけどtensorflowの有り難みがよくわからん
sessonとかなんやねん
- 805 :
- あとゼロから読んでも理解力低くてよくわからん
なんやねん誤差逆伝播
- 806 :
- なんやねん、おまえ、因縁つけとんのかw
- 807 :
- データサイエンス講義に下記のような一文があったけど、
どういう風に数学を勉強したら、これが解るの?
「文脈が持っている特徴を問題として捉え、数学の言葉を使って考え、
自分の知っているアルゴリズムが解こうとしている問題に
どのように対応するかを考えましょう」
- 808 :
- >>805
それぞれのレイア―を関数に見立てて考えよう
レイア―1 …… y=f1(x)
レイア―2 …… z=f2(y)
レイア―3 …… o=f3(z)
f1にまずxが入力されて、f3から出力値oがでてくる
さて、いま出力値oを最大値に近づけたい
レイアー3だけ考えよう
f3()に入るzという引数を、いったん定数と置こう
このzに、限りなく0に近い Δz という値を足すと、
f3(z+Δz) = f3(z) + g3×Δzと、出力値oがg3×Δzだけ増える
レイアー2も
yを定数と置いて、Δyをyに足すと、f2(y+Δy)がg2×Δyだけ増える
- 809 :
- レイアー3も
xにΔxを足すと、f1(x+Δx)がg1×Δxだけ増える
ここで、g1×Δx=Δy , g2×Δy=Δz
だから、g1・g2・g3・Δx = Δo(出力値oの増加分)
このg1・g2・g3がgrad(勾配)の正体だ
誤差逆伝搬では、g3、g2、g1と反対側から各レイヤーの傾きを求めて、
最後に掛け算することで、この勾配の値を算出している
えっ、g3、g2、g1はどうやって求めてるんだって?
偏微分とか(ごにょごにょごにょ……まあ、気にするな
あと最後に言っておく
分かりやすさを優先して説明をはしょったり、捻じ曲げたりしてるから
ネットの落書きなんてあんまり信用するな。がんば
- 810 :
- 今朝のテレビ朝日系羽鳥慎一モーニングショーで
蚊の研究をしてる元高校生を取り上げて
ノーベル賞とか公式発見とか取り上げてたけど
ただのデータマイニングと最小自乗回帰式出しただけで
夏休みの自由研究レベルだったんだが
ここの人もし見てたら色々言いたいことあると思う
- 811 :
- どうでもいいといいたい
- 812 :
- 論文これね
http://www.tsukuba.ac.jp/community/kagakunome/pdf/16/hg/hgs2.pdf
- 813 :
- >>807
文脈が持っている特徴というのは学習対象に関する知識に基づくものであって、例えば機械の故障予知ならその機械の性質などとなる
つまり対象物に関する知識を持った上で対象物に由来する適切なパラメータを数学的理論に突っ込んでやる必要があるわけで、
数学が不要なのではなくむしろ数学は大前提の知識でありそれに加えて対象物特有の知識も必要だということ
- 814 :
- >>810
その話は知らないけど、例え簡単な回帰式でも人類の発展に貢献するものならノーベル賞もありうるんじゃないの?
例えば、ガンの発症率と睡眠時間が相関があるとか。
まあイグノーベル賞っぽいけどw
- 815 :
- 無いわ
- 816 :
- 読んでみたら、割と凄い論文だった
きちんと理論武装して学術論文の体裁にすれば評価されるだろうさ
切り口が鋭い奴はなにやっても凄い
- 817 :
- >>816
斜め読みして見たけど、テレビでやってる科学番組みたいな感じなのが残念だな。ああいう番組を見て育つとこういうのが研究なのだと勘違いしてしてしまうのかもしれない。
- 818 :
- ちゃんとした雑誌とか載せてないなら意味ないじゃん
- 819 :
- ここで話すことじゃない
- 820 :
- まさか、データ分析だけじゃないだろ?
蚊を何百匹も飼育して、自分の血を吸わせて、実験しているのだろ?
大変だろ
- 821 :
- ノーベル賞は選抜された世界中の研究者からの推薦数で決まるのでそこに強いコネがあるか超有名人かでなければどれだけ内容が優れていてもまず取れない
- 822 :
- どさくさに紛れて東京医大をディスるのはやめたまえ
- 823 :
- 研究は手法よりもテーマの選び方のセンスってのはあるんだろうな。
手法なんてXGBoostでテキトーに出力してもうまくいくときはうまくいく。
- 824 :
- テーマの選び方に余地がなく、上から降って来てなんとかしてくれって言われることが多いです。
- 825 :
- 手法が難しいほど研究とか言ってる馬鹿がきて笑う
- 826 :
- >>820
たまたま飼育していた蚊の傾向が判っただけで
同じ遺伝子の蚊だと意味がない気もする
日本中世界中の蚊で試すとか
違う種類の蚊でも試したのかな
- 827 :
- >>826
こういうのは検証手法を考案し有意な結果を得たこと自体に意義があるんだよ
あとはアース製薬の仕事
- 828 :
- なるほど
アースや金鳥やフマキラーが追従して論文書けばノーベル賞か
- 829 :
- >>821
それだと田中耕一さんの受賞がわからない。
中村修二さんは目立ってたけど。
- 830 :
- >>827
論文さらっと読んだ感じだと有意と言えるかどうか分からんけどなあ。
まあ追試して検証する必要あるね。
- 831 :
- 島津の田中さんみたいな発見や発明型のノーベル賞はすごいと思うけど、重力波とかニュートリノのカミオカンデとかわかってることを確認する型のノーベル賞は若干落ちる気がする
金集めて人使う経営者的能力って感じで
いやそういう能力の人も大切なのはわかるんだけどさ
- 832 :
- >>831
>重力波とかニュートリノのカミオカンデとかわかってることを確認する型のノーベル賞
いや、実験をはじめた時点では、理論が嘘である可能性を織り込んでいるんだよ
理論が成立しないかもしれない、と思いながら、それでも、その理論を理解し咀嚼し(普通は、嘘かもしれない理論を学ぶ気はしない)、その理論に載って実験器具を設計する
並大抵の覚悟ではできないと思うよ…
- 833 :
- >>832
所得税は納めてるの?
- 834 :
- >>831
ほんそれ
- 835 :
- あとカミオカンデは2回受賞してるけど
一回目のは確認型だけど
二回目のは失敗からの新発見だったかもしれない
- 836 :
- 底辺ワイ、すげぇ難しい話しててついていけない
- 837 :
- 安心しろ。偉そうに書いてるだけで書いてる人たちが何かしたわけじゃない
- 838 :
- ホントにそうだよなw
- 839 :
- 大手のデータ分析インターン受かった
- 840 :
- 安心しろ。ただの崩れだ(笑)
- 841 :
- 企業のデータ分析なんかコンサル力がないと完全に社内ニートやで
- 842 :
- 社内ニートで金もらえるならむしろラッキーじゃないか
- 843 :
- >>842
お茶が温いので入れ直してくれるかな
- 844 :
- >>842
これコピーとって綴じてくれ50部
- 845 :
- >>842
焼きそばパン買ってきて!
- 846 :
- >>839
関西P社?
このスレにそんな実力者がいるとは
- 847 :
- 自演乙w
- 848 :
- 従来のseがソレになっただけのような
- 849 :
- seやな
- 850 :
- インターンなんてse代わりに使うには教育コストパフォーマンス悪すぎじゃないか
しかも少ししたら居なくなるわけだし
- 851 :
- そりゃあいい気持ちにしておいて
seを確保するためだろ
- 852 :
- DSの底辺の仕事は、汚い前処理をひたすらやらされるポジだよ
高卒でやってる人もおる。そこからでも、がんばれば這い上がれるんだけどね
アルバイトで、未経験どころか知識がなくても受け入れてくれる求人もあるにはあるから
興味があれば突撃してみるといい
- 853 :
- 任天堂売れてるらしいな
- 854 :
- P社って、データサイエンティスト集めてるけど、AIに力を入れるわけでも無し、
何を企んでいるのだろうか
- 855 :
- 真似した
- 856 :
- データサイエンティストは、ガチに売上に貢献するネタ見つけたら門外不出扱いになるから、
当たり前だが外部に公開なんて出来ないよ。
上っ面撫でてるような話ばかり取り沙汰されてAIブームとか言われてるけど。
- 857 :
- 募集の目的は他社に盗られる前に青田買い
- 858 :
- seだとやりたがる人がいないからね。。。
- 859 :
- >>845
前原誠司に怒られるぞ。
- 860 :
- H'とW'の+1はどこから来たのでしょうか?
実際に数を入れてみたら近い値が出てきました
ちなみにDlの式がないのですが何を表してるのでしょうか?
https://i.imgur.com/zU03Gg6.jpg
- 861 :
- 15mの道に木を5m間隔で植えたら15/5+1本植えられる
- 862 :
- >>852
まあ実際のデータサイエンティストの仕事ってそんなもんだがな。
9割が前処理コードと実験環境構築。
- 863 :
- 理学分野じゃないのにサイエンスが入ってるという糞用語つくる時点で営業目的の表現だし
PGをSEってよびかえるのと同じ
- 864 :
- SEやね
- 865 :
- バスケット分析とかだろ
紙オムツを買う男は、一緒に缶ビールも買うとか、
焼肉のたれは、肉の売り場に置いた方が、よく売れるとか
- 866 :
- バレー分析
- 867 :
- そんな相関さえ見えればいいようなものなら専門家でなくても誰でも半自動ぐらいでできる
- 868 :
- 機械学習ならpythonとRどっちをマスターすべきかさっさと教えろ
- 869 :
- 両方
- 870 :
- 両方できるようになる
- 871 :
- >>868
深層学習を中心にやるならpython
機械学習全般ならお好きな方を
- 872 :
- 今から新規に始める場合、既存のライブラリなどの資産の有無の縛りがないならpythonにしない理由はない
- 873 :
- R 面白いじゃん、プログラミングが面倒に感じる人ならいいと思うけどな
… と書いてみたものの、R vs Python 論争は今更かw
好きなのやればいいいんじゃないの、不都合が発生したら両方やればいい
- 874 :
- >>867
だが実際にやるとなるとめんどいんだよ。
- 875 :
- 今さら無駄なので両方無しよ
- 876 :
- Rはマニュアル見て動かせばいいだけだから勉強するってほどのことがない
- 877 :
- 日本ハム清宮、ノースロー調整続け8・1右肘再検査
https://www.nikkansports.com/baseball/news/201807280000142.html
清宮って投手だっけ?? w
- 878 :
- ごめんなさい 誤爆しました m(_ _)m
- 879 :
- 肩や肘けがしてたら守備も出来ないし打てない罠
- 880 :
- なんか機械学習の本ポチった
スッキリした
- 881 :
- 機械学習の本、高いよね…
- 882 :
- 株価でも、何十年も相関関係を調べている
株価は実体経済よりも、半年先行している。
さらに、サザエさんの視聴率は、株価よりも3か月先行しているw
最も早い指標が、サザエさんw
視聴率が下がると、どこかの産業が活発になってきている証拠!
それが後に顕在化する
- 883 :
- >>881
「すぐに使える! 業務で実践できる! Pythonによる AI・機械学習・深層学習アプリのつくり方」とかいう如何にも怪しい本買ったよ
- 884 :
- >>883
ちょっとググったら github にソース置いてあるんだな、今っぽくて悪くはなさそう
- 885 :
- >>882
サザエ相関は疑似だろ
- 886 :
- >>883
良さそうじゃんこれ!
- 887 :
- まずデータをどう集めるのかが大変だよね。
天気予測とかで、日本全国1000箇所ぐらいの温度、湿度、空の写真、海の写真とかを1分に1回計測して学習させたりとかしてみたいけど、国家プロジェクトなレベルの話になりそう。
- 888 :
- だから機械学習を個人でやってもチュートリアル以外実用性のあることはほとんどできない
結局どのような組織に所属しているかが最重要
- 889 :
- 株のファンダでスクリーニングするくらいならそこそこいけるんじゃね
間違ってもテクニカル占いには手を出すなよ
- 890 :
- >>888
すごく分かる
参考書見ながら独学でやってるけど実戦で役に立つイメージが全くわかない
- 891 :
- そんなのプログラミングだって変わんないだろ
- 892 :
- 個人でやってるったって、
キチガイが勝手に関連付けを発見しているようなものだからな
風呂に入るタイミングでクラクションが鳴るから集団ストーキングされてる、みたいな
- 893 :
- >>891
機械学習の大前提となる大量の学習データの入手の難易度が個人か企業などのそこそこ大きく組織かで天と地ほど違う
学習データを要しないプログラムであればむしろ個人の能力が大部分なので自分が優秀ならそれでいい
- 894 :
- >>892
その通りだな
データサイエンスにおいて、因果関係の理解されていない相関という科学的に無価値なものにも価値が認められるのは、それが金になる可能性があるから
飯食ってウンコ垂れ流すだけの個人が金を生むデータを入手できるかというと、、
- 895 :
- グーグルもtensorflowを無償公開したときに
重要なのは仕組みじゃなくて
どんなデータを持っていてどう使うかのほうが重要と言っていたね
- 896 :
- 例えば、カルチュアコンビニエンスクラブ(Tポイント)が持っている
データが使えたとして、何を分析し、それを、どう活かす?
- 897 :
- どんな属性の人がいつどこで何を買いたがるかはあらゆる小売りが欲しがる情報だろ
- 898 :
- >>896
エロ本は入り口右側より左側の方が売れる
- 899 :
- すぐ思いつくことはすでにやられてるんだよな。
- 900 :
- 機械学習で何ができないか分かってきた。
機械学習ブームもいよいよ終焉か。
- 901 :
- >>900
>いよいよ終焉か
…もう終わってしまうのですか?今からやろうと思っていました
そうだ、今までのブームのなかで出た最良の参考書を教えてください
- 902 :
- 0,1のようにクラス分けされたものではなく、連続値の要因分析をしたいと(連続値が高い時に効いているであろう要因など)考えた時に検討されるアルゴリズムはどういうものになるのでしょうか?
回帰木なのかな?と考えたのですが知識も浅く決定木くらいしかイメージが付かないのでそう考えたのですが他にはどのようなアルゴリズムを検討すべきでしょうか?
かなり初歩的な質問ですいません
- 903 :
- >>902
それでどう木が関係するのかわかってないが。
2つの関係すべてで類似度を計算すれば似通ったのはわかるが。
- 904 :
- >>902
重回帰分析
- 905 :
- Google が良いのは、関連広告
アイドルで検索すれば、アイドルの広告、
プログラミングで検索すれば、プログラミングの広告のように、
その人に必要な広告を表示するから、有益
肉売り場に、焼肉のたれが置いてあるようなもので、便利
例えばギャンブルとか、会議室とか、
ユーザーに関係のない広告を見せられても、邪魔なだけ
自分に関係のない広告など、見ないし
- 906 :
- >>905
前まではそういうターゲッティング広告が万能という風潮もあったけど、全くの新規顧客を開拓するのには向いてなくて、今はまたマスの誘導のための広告をどうするかが流行ってきてるってもっぱらの噂だよな
- 907 :
- 検索実績ないユーザーが新規に何を検索したかを調べればいいだけだな
- 908 :
- そもそも志向性の無い人に、CMを見せて、嗜好を促すという毛色の違うアプローチなのである
- 909 :
- ただのリコメンデーションじゃないの?
- 910 :
- 毛染めの宣伝?
- 911 :2018/08/02
- 欲しい商品をちょっと調べたりすると同じジャンルの広告ばかり出るようになるよね
もう買ったからその広告出しても意味ないのに、と思うことが多い
小学生プログラマだけど質問ある
静的型付け言語の潜在開発生産性は今の100倍 ×5
日本語プログラミング言語Mind
【Win/Mac/Linux/Android/iOS】 Qt 総合スレ 18
C言語なら俺に聞け 153
【マック】Macintoshプログラミング質問箱
くだすれPython(超初心者用) その44【Ruby禁止】
SQLなら俺に訊け
【統計分析】機械学習・データマイニング28
クラス名・変数名に迷ったら書き込むスレ。Part28
--------------------
まんさんとかいう女叩き文化に辟易する喪女
【アニメ】「桃とブドウと信玄だけじゃない」 「ゆるキャン△」効果で山梨に聖地巡礼続々[04/09]
【バーチャルYouTuber】富士葵 #20【葵歌劇団】
不要ダーツとか小物をプレゼントするスレ
【ヘタリア】アルフレッド・F・ジョーンズアンチスレ
今期アニメ総合スレ 2271
ジョンと言ったら
武さんのゴーリドドリーム潰し成功ワロタ
MBS★アッパレ!ゴチャ・まぜ!イマドキヒット★58
【RPS】HOUNDS(ハウンズ)質問スレ
体重600キロの巨大イリエワニ、豪で8年の追跡の末ついに捕獲
【盗撮】youtuberおのだ君 5便目【知ったかぶり】
【政治経済】令和床屋談義 町の噂その754
【PvZ:GW2】Plants vs. Zombies:Garden Warfare 2 Part19
チア関連イベント情報94
東京マルイガスガン総合 211
【ガラガラで】THE NOVEMBERS【イライラ】
【エイミーは】愛の若草物語13【悪い夢を見た!】
怪獣大奮戦 ダイゴロウ対ゴリアス
!!!!!糞!!!!!
TOP カテ一覧 スレ一覧 100〜終まで 2ch元 削除依頼