TOP カテ一覧 スレ一覧 100〜終まで 2ch元 削除依頼
【医学】アレルギーについてわかってきた「常識を覆す意外な事実」[05/25]
【人類学】肌は浅黒かった 英で発見の1万年前の男性 DNA分析[02/08]
【新型コロナ】「社会的距離2mは不十分」ジョギングは離れて 欧州研究
【新型コロナ】武漢の約1100万人の全住民を対象大規模検査、新型コロナ根絶に成功した可能性−無症状感染ゼロ [しじみ★]
【医学】ドミニカ 少ない関節障害「野球肘」 背景に日本と異なる少年野球指導法[04/08]
【話題】東京の高校生がウランの粉末「イエローケーキ」を精製しオークションで販売していたと報じられる[04/12]
【歴史】縄文時代の終盤に人口急減 寒冷化か、DNA解析で[06/17]
【飛行技術】飛行機の窓の角が丸くなった理由には血塗られた歴史がある
【医学実験】ヒト特有の知能の進化に関わる遺伝子をサルに移植、中国で実験[04/12]
【福島第一原発】 トリチウム水 処分方法めぐり公聴会[08/30]
【AI】「ディープラーニングは、原理的には単純な最小二乗法にすぎない」で物議 東大・松尾豊氏「深い関数の方が重要」
- 1 :2019/02/20 〜 最終レス :2019/04/15
- 「ディープラーニングは、原理的には単純な最小二乗法にすぎない」――2月18日付けで日本経済新聞電子版が公開した記事について、Twitterでは「ディープラーニング=最小二乗法」という解釈は異なるのではという指摘が相次いだ。19日には「ディープラーニング」「最小二乗法」といったワードがTwitterでトレンド入りし、波紋が広がっていた。
日経の記事では、慶應義塾大学経済学部の小林慶一郎教授がAI技術について解説。「近年、驚異的な発展を見せているAIのディープラーニング(深層学習)は、原理的には単純な最小二乗法(誤差を最小にする近似計算の一手法)にすぎない」と言及し、「ディープラーニングは『最小二乗法』」と題する図版が掲載された。
https://image.itmedia.co.jp/news/articles/1902/20/ai_ml_01.jpg
最小二乗法は、測定で得られたデータの組を、1次関数など特定の関数を用いて近似するときに、想定する関数が測定値に対してよい近似となるように、モデル関数の値と測定値の差の2乗和を最小とするような係数を決定する方法。ディープラーニングに詳しい東京大学の松尾豊特任准教授は、2018年8月に登壇したイベントで、「ディープラーニングは最小二乗法のお化けのようなもの」「従来のマシンラーニングは(階層的に)『浅い』関数を使っていたが、ディープラーニングは『深い』関数を使っている」と説明していた。
https://image.itmedia.co.jp/news/articles/1902/20/ai_ml2.jpg
松尾氏は2月20日、Twitterの公式アカウントで「小林慶一郎先生はよく議論させていただくので、少し責任を感じています」とツイート。ディープラーニングを簡潔に解説するため「深い関数を使った最小二乗法」という言葉を使ってきたが、「深い関数を使った」という説明がいつも抜け落ちてしまうと嘆く。
松尾 豊
@ymatsuo
しかし、いつも「深い関数を使った」というところが抜け落ちてしまいます。ディープラーニングはその名の通り「深い」ことを強調した学術用語であり、そのくらい深いことが重要ですが伝わらない。深い関数により表現力が革命的に上がり、アルゴリズム的な挙動も含め表現できるのは驚くべきことです。
https://twitter.com/ymatsuo/status/1098116029987713024
松尾 豊
@ymatsuo
「最小二乗法」は、損失関数を最小化することで、モデルのパラメータをデータから推定することを、一般の人がぎりぎり持っている(かもしれない)知識で言い換えたもので、大雑把ではありますが、それほど悪くない言い方だと思っています。深いことに比べるとそれほど重要ではありません。
https://twitter.com/ymatsuo/status/1098116143393386497
松尾 豊
@ymatsuo
いずれにしても、経営者や政治家の方を含め、多くの人に正しく理解してもらうのは大変難しいです。「最小二乗法」がこれだけ話題になるというのは、逆に言うと、多くの人がぎりぎり理解できる地点がそこらへんまでなのだということを示してもいて、なかなか絶望的ではあります。まだまだ道は長いです。
https://twitter.com/ymatsuo/status/1098116255737737216
松尾 豊
@ymatsuo
翻って、「深い関数」という意味や、それがもたらす可能性を、(専門家の人も含め)どれだけの人がちゃんと理解しているのかとは、常々疑問に思います。もちろん、AI全般、あるいは知能全般の議論と簡単に結びつけるのは良くないですが、非常に大きな広がりがある技術だと思っています。
https://twitter.com/ymatsuo/status/1098116360062722048
続けて、「深い関数により表現力が革命的に上がり、アルゴリズム的な挙動も含め表現できるのは驚くべきこと」「『最小二乗法』は、損失関数を最小化することで、モデルのパラメータをデータから推定すること(略)深いことに比べるとそれほど重要ではありません」と投稿。経営者や政治家など、AIに詳しくない非エンジニアに正しく理解してもらうための解説は「大変難しい」と痛感しているようだ。Twitterでも同様に、AI技術について上司や同僚にどう解説すればいいかを嘆くエンジニアの声も見られた。
松尾氏は「深い関数」の意味やそれがもたらす可能性について、今後も研究や啓もう活動を続けていくと発信した。
ITmedia NEWS
https://www.itmedia.co.jp/news/articles/1902/20/news141.html
(deleted an unsolicited ad)
- 2 :
- 84年前の少女たちが「今の女子高生と同じ姿」と衝撃走る(動画)
http://www.tyy.elsabeatriz.com/articles/19.html
- 3 :
- 日本経済新聞に何を期待しているのかね?(ムスカ調
- 4 :
- 経営者や政治家は
それがどういう方面に応用できるか
だけでいいんだよ。
原理なんてわかったって連中には意味がない。
- 5 :
- 結局ブラックボックスで 再現も不可能だからね
- 6 :
- AIって実は大したことないんじゃねーの?
- 7 :
- 知らない人に対してなら、「ディープラーニングは最小二乗法のお化けのようなもの」ってのが妥当な説明のような気はする
>>4
政治家はともかく経営者は、担当者がそれを適切に説明できる程度に理解してるのかどうかを見極めなきゃダメじゃね?
- 8 :
- 自我を持ってないんだから、AI風味って言うべきw
- 9 :
- 【堀ちえみ(52)舌癌はブーメラン被曝】 悪いことを許していると、段々鈍感になり、悲惨な結末を招く
https://rosie.2ch.sc/test/read.cgi/liveplus/1550624935/l50
後になってから、自分がいかに有害であったかに気づくのです。
pzytyf/jb5ry1.html
マ一十レーヤの唇からますます厳しい警告と重みが発せられることを覚悟しなさい。
ahjzfl-1/pzytyf/u4t847
マ一十レーヤは間もなく出現してこられます。長い間の待機はほとんど終わりました。
lutefl/04zpzf/ssl5p8.html
- 10 :
- はははは
- 11 :
- 単純なことを桁違いにやると常識外れのものが得られるってだけのことじゃん
型をずっとやってたら最後には祈るようになったようなもんでしょ
- 12 :
- ディープラーニング、AIに欠かせない発想源なのか
- 13 :
- >>6
本来的な人工知能ではないな
- 14 :
- 円心分離機と超円心分離機の違いを思い出した
- 15 :
- いい加減AIの責任の所在はそれを設計した団体組織の代表者の意向が
反映されたことで作動するものをAIと呼んでいると作成者の責任を法制化しろよ
- 16 :
- >>4
数学的理解がないからこそ
マトリックスなどの反乱といった頓珍漢な妄想を抱くことになるのだが
- 17 :
- 厳密な事実としては間違ってるんだろうけど
ニュアンスとしては間違ってなさそう
ある種の統計処理みたいなものであって
まだまだ高度な知能とはいえない
高度な知能ではないけど囲碁とかボードゲームなら有効に機能する
- 18 :
- >>4
経済学部の教授が自分の間違いに気づかず、授業料を払っている学生に教えているのが問題。
- 19 :
- 深い関数ってどういう意味なの?
- 20 :
- 統計屋だがDeep Learningわからん
応用する機会もないから、勉強するきっかけがない
- 21 :
- >>1
松尾先生Eテレ見てます
- 22 :
- AI詐欺にかかってる経営者連中はポカーンだろうな
- 23 :
- 最小二乗法ってのは
それ自体には何の根拠もない近似法なんだよ。
何で使われてるかって、
二乗することマイナス符号が消えて、近似関数が決めやすいから。
ただそれだけ。だからその近似関数には何の意味もない。
別に最小4乗法でもかまわない。
あるいは、絶対値法(1乗法)でもかまわない。
どんなやり方をしても、まったく意味がない。
それは、いかなるやり方も勝手に想定した近似にすぎないから。
よって、>>1の者どもは
すべてアホだよ。
何も分かっていない。
- 24 :
- コイツ無知だな
ディープラーニングは、複数のニューロン群から構成される多重写像だから
単一ニューロンの単純な関数の最小二乗近似とは違うよ
- 25 :
- 逆に人の意図の介在を許さないほどの単純な数式だからこそ
より信頼できるというものですよ
- 26 :
- >>24
ニューロンとか古い発想はもう使われてません
今は主にパターン認識と選別です
- 27 :
- バックプロパゲーション時代の手詰まり感を知らないと、ディープラーニングがブレークスルーの理由が分からんからな。
- 28 :
- >>17
人間の脳みそも、単純なニューロンの深い深い組み合わせなわけで。
(神経伝達物質が環境変数みたいに機能しているようだけど)
ニューロンの学習も、教師(経験)に対する誤差の最小化と考えたら、
最小二乗法と、やろうとしている事レベルでは大差ないんではないかと。
違うのは方法論だけという。
- 29 :
- AIには何も革新的なことがないのは事実
単にコンピューターの性能が向上して、昔ならコストがかかったことが気軽に出来るようになっただけ
- 30 :
- >>6
SF的な意味でのAIの事なら、今現代で言われているAIとは全くの別物と言って差し支えないよ
ただAIって言葉を使いたいがために定義がどんどん変わっていってるのが現状
- 31 :
- AIと聞いたらまずアニメとは切り離して考えないとダメだよ
日本でAIの研究が一向に進まないのは自我を持った人型の機械という空想上の人工物のせいだからね
- 32 :
- >>19
気温とか湿度とかそんなやつじゃね
- 33 :
- >>19
階層が一つで、活性化関数が無いケースは、まさに線形計画法そのもの。
活性化関数をつけて非線形にしたうえで、その階層を何層も重ねると、
あらびっくり。階層の深さに応じて、万能近似装置になっちゃった。
という仕組み。
ちなみに、活性化関数を入れずに、線形なまま階層を重ねても、展開すると
1層と同じものになってしまう。
- 34 :
- なんで経済学部のおっさんが解説しちゃおうと思うんだろw
- 35 :
- 自動運転自動車もようやくレベルを区別するようになったけど
AIも区別して報道しろ
人間のようにどんな知識でも学習できるものなのか
その上で人間より高度の思考力をもつものなのか
あるいは、特定の分野向けにつくられた用途限定されたものなのか
あるいは、もっと原始的な思考システムなのか
- 36 :
- ディープラーニング=局所最小解の問題を解決した最小二乗法だというイメージだが違うのか?
- 37 :
- >>35
AIなんて
すべて単なるプログラムにすぎんよ。
アルゴリズムがコピーできるものは
すべて単なるプログラム。
動物の脳のアルゴリズムはコピー不可だから
プログラムではないんだなこれが。
動物の脳には自我が有り、コピー化なら
AとBのどちらが「自分」だと意識するのか論理的に解無しだから
コピー不可なんだよね。
だから、AIは脳を超えるどころか
近似さえ無理。
AIはコピー化。
脳は自我が有るから不可。
この基本が分からずに研究してるバカばっか。
不可能を追及してるわけ。
- 38 :
- 簡単に説明しようとしたことを
複雑に説明しようとする専門家たち
- 39 :
- Deep Learning一本で、ここまでAI畑の連中がのさばってるのが腹立たしいわw
- 40 :
- 聞き流すだけで英語が
- 41 :
- >>26
ディープラーニングって
ただ単に深いニューラルネットワークと
どこが違う?
- 42 :
- 入力が二次元のデータで、出力は「A」か「B」のどちらか
平面上に線を一本引いて、それより上なら「A」、それより下なら「B」
入力と出力のデータをたくさん食わせて、直線の位置をどこにするのが
一番正しく判定できるか調べる
一番性能がよくなる直線がわかったところ=学習が終わったAIデータ
あとはそれをより複雑なデータとか高い次元でやる
そんなところだろ
- 43 :
- >>2
アフィカスR
- 44 :
- 最小二乗法なめすぎだろ
非線形な場合、安易にやれば大概はろくな結果にはならん
- 45 :
- >>13
まあ本来は、変換辞書の学習アルゴリズムみたいなもんだからや
- 46 :
- >>23
それは評価関数の意味を考えないアホの思想
- 47 :
- おれAIだけどなんか質問ある?
- 48 :
- ディープラーニングは数学者が解説すべき
藤原正彦博士が適任である
- 49 :
- >>47
晩飯食ったか。
- 50 :
- >>48
ハゲを隠すスダレ頭で、品格だの矜持だの国家だのってのが適任者なのか。
- 51 :
- >>38
簡単に説明したつもりで、大事な所を省いて、結果間違ってたら、
そりゃ誤りを正すのも専門家の仕事だろ。
- 52 :
- >>26
うん、お前みたいなクソバカはromってろ
ヒューリスティックな回答をするという意味では
最小二乗〜ってのもあながち間違いじゃないけど
言葉だけ独り歩きしちゃうからな…
- 53 :
- なんとか法と一言でいいたいだけじゃね。
マハラノビス距離が最小となる分類を決定する方法とかどうよ。
- 54 :
- 最小二乗法だって「重み」つきにできる
「重み」の選択に任意性を付すことができるが、それとどこが違う
- 55 :
- >>37
自我ってのは脳細胞、脳全体によって生み出される機能(?)だろ。
なら、それを機械的に再現することは不可能ではないわな。
- 56 :
- ネトウヨが最小二乗法について必死にググってますw
- 57 :
- >>47
こんな場所でチューリングテストかよ!
- 58 :
- >>26
お前は実は何もわかってないだろ?
若しくはわかった気になっているパターン
- 59 :
- 結論:文系はバカだ
- 60 :
- 有用であれば原理の単純さなんてどうでもよい
- 61 :
- お前ら難しいことよくしってんな。
俺はディープスロートしかわからない。
- 62 :
- この学習法はコロンブスの卵だよ
自分がニューラルネットワークの研究やってたときは、四層以上の学習法は良い手法が無かった
三層構造で学習させた後に四層目を追加して、一層目は学習から外すなんて思いつかなかった
- 63 :
- >>23
確かに二乗を使ったほうが最善という話はどこにものってないな。
計算がしやすいのは分かるが、
最初に思いつくのは絶対値を最小にすることだろう。
(ここでは1乗法と書いてある部分)
絶対値に比べて二乗だと、1より小さいと小さく評価され
逆だと大きく評価される。この評価が妥当かどうか。分からない。
(y=xとy=x^2のグラフを重ねてみれば分かる。言うまでもないが)
- 64 :
- 深い関数ってどういう意味?
複雑な関数とは違うってこと?
- 65 :
- AIという言葉を使う連中にはこれぐらいの極論じゃないと伝わらない気はする
- 66 :
- ディープラーニングとかAIとかその辺の単語を広告業界が乱用したせいでごちゃごちゃになってるよね
- 67 :
- WikipediaをWikiって略すな論と同じような議論に感じる
- 68 :
- 深い関数って何なんだろう?
浅い関数と深い関数をいくつか例示してくれれば、みんな分かるかもしれないのに
- 69 :
- >>67
それのどっちかで多数決とってるイメージだね
- 70 :
- 関数の深さってなんすか
- 71 :
- ところで「チンポがシコシコする」という日本語表現は、文法的に正しいのか?
チンポ「を」シコシコするのではなくて、チンポ「が」シコシコする。この場合、「チンポ」は主語となる。
オブジェクト指向で言う「集約」は2種類あって、全体(俺)と部分(チンポ)が繋がっている場合と、
全体(俺)と部分(チンボ)が別々になっている場合とが考えられる。けれども「チンボ」はそれ自体
が独立した生き物であり、所有者の意思とは無関係に、勃起して「シコシコする」。
例えば寝てる時にエロい夢みて朝起きてみたらチンコが勃起して射精してたとか。
違うか?
「胸がドキドキする」は良いが、「チンポがシコシコする」はダメな理由を、50字以内で述べろ!
- 72 :
- 俺には自分が情けなくなるほど書いてある内容がわからん
- 73 :
- >>47
生命、宇宙、そして万物についての究極の疑問の答えは?
- 74 :
- 人間ってもしかして凄いんじゃない?
- 75 :
- 「深い関数」なんて言葉は一般的なものなの?
- 76 :
- ディープラーニングがわからない人は
多分 最小二乗法も理解できてない
- 77 :
- >>4
経営者は兎も角政治家に何かを求めるのが間違い
何に応用出来るのかまで示すのが真の
- 78 :
- 大胆な簡略化を取り入れれば、そのような表現になることもあるだろうが、
大胆過ぎる簡略化が御幣を招くこともある。
まあ、その手の簡略化で言うのなら、日本経済新聞は「右翼のビラ」、
慶應義塾大学経済学部の教授は、「カルト教祖」とかいったところだろうか?
- 79 :
- コンピュータは原理的には0と1の演算からできている、という話と似ているというか、
ミクロに見ていっても要素が小さくなりすぎて、その本質は見えてこない
深いという点が重要な働きをしていることに間違いはないだろうけど、それだと今度はざっくりしすぎていて、
本質の部分はもう少し中間のサイズの何かなんだろうね
- 80 :
- Deep = 深い
ニューラルネット=神経回路網
ディープラーニングとは、ディープニューラルネットを使って学習をする
仕組みのことだ。
ディープニューラルネットというのは、多階層のニューラルネットで
その階層の数がとても多いもののことをいう。
階層を重ねることによって、複雑な振る舞いを模倣できるようになるが、
その模倣を上手くやるための良い調整のパラメータを決めるのが
階層が深くなるとそれだかとても難しくなり、大量の計算をして最適な
調整パラメタを決めている(それでも本当に最適であることは一般には
証明できないが、多数の学習例題をうまく近似できていれば、一応問題は
ない)。 ニューラルネットのアプローチは、多数の事例に対して
パラメータあわせをして作った結果は、なんらかの意味で本質を抽出
していて、まったく未見の新しくやって来た事例に対しても、それなりに
正しい応答をするだろうという仮定を置いている。
犬と猫の絵をたくさんみせてこれが犬でこれが猫だと正解をつけて
学習させたとき、まだ見せたことの無い犬を見せてそれを犬と判断できるか
どうか。あるいはまだ見せたことの無い猫を見せてそれを猫と正しく判断
できるかどうか。犬と猫のハーフを見せたらどうなるのか?馬を見せたら
どうなるのかなど、哲学にも通じるものがある。
- 81 :
- ディープラーニングって聞くと石川遼の英語学習のスピードラーニングが邪魔しにきて理解できなくなる
- 82 :
- 日本の初代ディープスロートの女王は斉藤唯。
これちょっとしたビーンノレッジな。
- 83 :
- 言い訳みたいな事いうより、深くないディープラーニングが最小二乗法と一致することを証明、説明すればいいのでは?
- 84 :
- 「深い関数」について簡略的に独断と偏見で解説すると、
「AI」というものは、一種の万能関数だ。
つまり、無数にある係数を調整することで、どんな関数でも近似できる。
で、問題は、その係数を効率よく決定することになる。
最初の万能関数は、テーラ級数展開とかフーリエ級数のようなものだろうか?
で、これらの係数を決定するのに使う手法が最小二乗法だ。
次に、発明された万能関数としてチューリングマシンがある。
これは、アナログではなくデジタルの万能関数だ。
しかし、チューリングマシンのプログラミングはあまりにも人間には難しかった。
で、これに思い切って性能は劣化するが「命令とデータの分離」という制限を付けることで
人間の知能でもプログラミングしやすくしたのが、ノイマンマシン。
それでも、プログラミングが面倒だった。
そこで、人間の脳に関する知見を元に作られたアナログ万能関数が、パーセプトロン。
でも、今度は近似性能が低過ぎる。
パーセプトロンの問題点を探ってみると、「万能」化させる負荷が、特定のごく少数の浅い部分の係数ばかりに
集中していることが性能劣化の主な原因のようだ。
で、その他の「深い部分」にある係数も、「万能」化、学習に動員させるように改良したものが、
ディープラーニング。
- 85 :
- >>34
この小林慶一郎氏は東大計数工学科の出身らしいから、当時はニューラルネットワークの権威の甘利俊一先生がいたところだから、
日本で一番ニューラルネットワークについて研究できるところでもあり、つい何か言いたくなっちゃうんだろうね
>>48
ディープラーニングは部分的に数学を使うとはいえ、多数の評価が組み合わさってどうなるかの話だから、数学者に聞いても何か分かるとは限らないぞ
実は数学的な何かの性質が本質的な働きをしているということがもしあれば、それは数学者の方が見抜ける可能性はあるのかもしれないが
- 86 :
- 831 デフォルトの名無しさん sage 2018/11/11(日) 10:00:59.18 ID:Tyd11AGx
たとえば、CycはFredという名前の男がドナルドダックのモノマネをするという話が理解できなかった。
Cycの推論エンジンは、この話の中に矛盾を見つけた。Cycは人間には羽がないことは知っているが、
アヒルのように歩き、アヒルのように鳴くものはアヒルに違いないと考えた。
したがって、CycはFredがドナルドダックのモノマネしている間、
Fredはそれでも人間なのかと尋ねた。
925 デフォルトの名無しさん 2018/11/21(水) 18:36:07.42 ID:8Yc2p7H1
>>919
>そもそもアランケイの言う「実行中」は「起動中」であって
>「使用中」じゃないんだろう。マルチユーザーで誰かが使用している最中に
チンポがシコシコしている間、俺はそれでも俺なのかと尋ねた。
829 デフォルトの名無しさん 2018/11/11(日) 09:52:59.70 ID:y84pWKv0
(第1章 はじめに 2頁)
たとえば、CycはFredという名前の男が朝にひげをそるという話が理解できなかった。
Cycの推論エンジンは、この話の中に矛盾を見つけた。Cycは人間には電気の部品がないことは知っているが、
Fredが電気カミソリを持っていたので、エンティティ「Fredがひげそり中(FredWhileShaving)」
には電気の部品が含まれていると考えた。したがって、CycはFredがひげをそっている間、
Fredはそれでも人間なのかと尋ねた。
『深層学習』
著者:
Ian Goodfellow, イアングッドフェロー,
Yoshua Bengio, ヨシュアベンジオ,
Aaron Courville, アーロンカービル
- 87 :
- ニューラルネットワークを数学的に概観すると、
係数全体が示す(多次元)平面上に、目標の近似達成度という一次元の関数が定義できる。
「学習」とは、その近似達成度が最大化するように、係数ベクトルを移動させてゆく問題だ。
ちょうど、(係数ベクトルという)パチンコ玉が、(近似達成度の)窪みに落ち込むように揺すったり叩いたりする数学的手続きをするのが、
ボルツマンマシンだ。
既存のパーセプとロンでは、揺すり方が、単調で小刻み過ぎて、ちっともパチンコ玉が小さな丘も超えられない。
で、ディープラーニングなどでは、思い切って、もっと、大きく揺すったりする。
- 88 :
- 928 デフォルトの名無しさん 2018/11/21(水) 18:59:11.61 ID:8Yc2p7H1
>>922
>ナンチャッテメッセージングスタイルになったのは
チンポ.オシッコを出す
チンポ.オシッコを止める
さっきトイレでやってきた。
929 デフォルトの名無しさん 2018/11/21(水) 19:07:17.83 ID:8Yc2p7H1
>>915
>単なる動的なメソッド呼び出しをメッセージと称し、ただしコールするメソッドが見つからない場合だけメッセージを
>ハンドリングできる省コストなナンチャッテメッセージングスタイルに落ち着いた。
×
俺.オシッコを止める 俺.オシッコを出す
○
俺.チンポに力を入れる 俺.チンポから力を抜く
- 89 :
- 係数の数は少ないほうが簡潔でよい(オッカムの剃刀)。
しかし、係数が増えれば、その分、近似精度は上がる。
近似性能の上昇と係数の簡略さの相克を考えた係数の最適数を決定する公式として、
ベイズ統計では、「赤池の公式(Akaike's Information C.)」というのがあったはずだが、
最近の教科書では、取り上げられていないことが多くなった。
- 90 :
- >例えば寝てる時にエロい夢みて朝起きてみたらチンコが勃起して射精してたとか。
当然ながら起きているときも、チンポがシコシコする!
風呂から出て体一杯に水を浴びながら竜哉は、この時始めて英子に対する心を決めた。裸の上半身にタオルをかけ、
離れに上ると彼は障子の外から声を掛けた。
「英子さん」
部屋の英子がこちらを向いた気配に、彼は勃○した陰○を外から障子に突きたてた。障子は乾いた音をたてて破れ、
それを見た英子は読んでいた本を力一杯障子にぶつけたのだ。本は見事、的に当って畳に落ちた。
その瞬間、竜哉は体中が引き締まるような快感を感じた。彼は今、リングで感じるあのギラギラした、
抵抗される人間の喜びを味わったのだ。
●これが衝撃の「障子破り」シーンだ! (石原慎太郎 『太陽の季節』 (新潮文庫) より)
http://www.geocities.co.jp/Bookend-Soseki/3578/2003/shoujiyaburi.htm
>その瞬間、竜哉は体中が引き締まるような快感を感じた
チンポがシコシコする≠勃起、つまりそれはただチンポが勃起するのではなくて、
「体中が引き締まるような快感を感じた」ということなのである!!
- 91 :
- 宇宙の起源はビッグバンだよねって言ってるレベルw
- 92 :
- 機械翻訳も近似計算だけど、言葉のニュアンスは微妙な面がある。
0. 外国語、特に英語、の教え方
「読み書きは出来るが会話ができない」というのは間違い。「読み書き」も出来ない
Decorative artとは、絵画、彫刻、建築を除いた家具、食器、絨毯、藍掛け、花瓶、タイル、
ドアのノッカーなど美術品と見做せるものの総称
表裏は日本語だと「おもて」と「うら」だが、漢文では「外側」の「内側」であり、「裏」は「なか」である。
コインの場合、英語ではhead & tailで、誰かの頭部の像がある方が日本語の「おもて」だが、tailが「うら」とは奇妙
http://hiroomikes20120501.blogspot.com/2014/12/20141212.html
志村五郎『中国説話文学とその背景』(ちくま学芸文庫)
著者の志村氏は、米プリンストン大学の数学者らしい。志村氏が五十数年かけて集めた中国の説話を、
八年かけて一冊書き上げたと、本人が書いているので、趣味のライフワークの結晶めいてみえるのもむべなるかな。
http://d.hatena.ne.jp/nagaichi/touch/20071008/p1
- 93 :
- 情報幾何(一般相対性理論みたいなやつ)と
最小二乗法、ディープラーニングの関係性は不明なんだが
情報幾何はすべてを含む理論なのか
- 94 :
- 情報幾何入門
赤穂昭太郎
産業技術総合研究所
脳神経情報研究部門
https://staff.aist.go.jp/s.akaho/papers/infogeo.pdf
- 95 :
- 全てを説明していないが、おおざっぱな原理では本質そのものを言っている
ソフトウエア実装で自分で組んだんじゃなくてライブラリー利用して
APIいじっているようなレベルのアホが多すぎるだけ
- 96 :
- ディープラーニングの深い関数を書けばよい
それ見れば、最小二乗法で無いことは分かるだろう
- 97 :
- >>27
それは力任せに単純化したのとハードウェアのレベルがいまとは異次元の差だと
理解できないやつが多いだけ。
バックプロパゲーションとかの時代は8ビットのマイコン初期だぞ、
速度以前に容量的に不可能ってことさ。
何をどう説明しても情報のつながりを最適化する問題でしかなく、それ以上でもそれ以下でもなく
完全になる解が無いデータを無数に処理させても完全解にはならない。
AIが難しいのはシステムを作り出す過程でのデータマイニングのほうであって学習のほうではない
のは明らかである、AIを全て学習だけでさせられると勘違いしているアホだらけ。
- 98 :
- >>96
学習原理により情報を最適化する部分については、何の反論もできていないのに
なにをシッタカしているのか?
基本的なテンソル演算での技術基盤は共通だ。
- 99 :
- しらないが、間違ってるんじゃないのか。画像圧縮みたいなことじゃないか。
圧縮にjpgとかpngとかgifとかあるが。
ディープラーニングはその圧縮法を自動学習させるようなことと理解してるが。
圧縮先は、既に画像でなく文字になりネコ、イヌ、ヒト、その他とか。
- 100 :
- 日本経済新聞の人選ミスじゃん。
日本経済新聞も人材の質が低下傾向。
朝日新聞は東大卒がゼロに。日経新聞も相当減ってるだろ。
新聞なんか選ぶ一流学生はいない。
100〜のスレッドの続きを読む
【神経解剖学/行動科学/心理学】ダビンチ、ADHDだった? 研究者らが気性や習慣を分析[05/28]
【気象庁】今夏の日本の異常気象 “温暖化の影響確実と証明”[12/07]
【研究】プログラマーの脳は作業中に”誰かの声”を聞いていると判明! 数学力より音声理解力が重要 [しじみ★]
【群馬】タラノメから基準超え放射性物質
【生物】 交尾しまくって1匹で種の絶滅を食い止めた絶倫カメ「ディエゴ」が現役引退へ 2020/01/14
【生物/環境】私たちのウンチがサンゴ礁を死滅させている…[08/09]
【AI】人工知能はもう悪用される段階に 専門家警告[02/21]
【動物】猫は自分の名前が呼ばれていることを認識 上智大学の研究で判明[04/04]
【研究】水から水素を取り出す 活性高い光触媒を信大などが開発 [しじみ★]
【生態系】野良猫200万匹の駆除、オーストラリアが目指す理由[04/29]
--------------------
【遊戯王】裁定スレ総合
HYDEは168センチ
【うまいのに】サイリウム麺 【低カロリー】
ザ・浦上氏
【画像】昼飯代300円のOL 現る [998671801]
クソスレ【ニダーラン狼スレ観察】キチガイ
【バーチャル】hololiveアンチスレ#4542【youtuber】
鉄道系YouTuberスーツ君を語るスレ Part36【ワッチョイ】
【投稿サイト】小説家になろう3360
ボディの美白・総合
【きらファン】きららファンタジア まったり part272
【KORG】minilogue PART1
cis6635 オール甲乙男【白川禁】
ママ友になりたくないママの特徴 part28
愛媛の大学職場一般 パート1
【新海誠】君の名は。295
【アークミール】どんグループ総合★2【ステーキのどん】
護憲学者「自衛隊は解体で→災害救助隊に。他国に攻撃されたら白旗を揚げる事が被害を最小限に食い止める」お前らこれに賛成なん? [998671801]
【MH4G】ギルクエ専用PT募集スレ 20
火曜JUNK 爆笑問題カーボーイ part260
TOP カテ一覧 スレ一覧 100〜終まで 2ch元 削除依頼