疑似1細胞発現データを作る
- 複数の細胞からのデータがある
- 細胞数が分かっている
- リード数を細胞数に分けて、疑似1細胞発現データを作りたい
- sample()関数を使って疑似作成できることを示し
# 検体数 N # ある遺伝子のNGSリード数が Mだった # m1 + ... + mN = M; mi >= 0となるような{mi}をランダムに生成したい N <- 100 M <- 50 # M本のリードを1:Nの検体にランダムに(等確率で)割り付ける s <- sample(1:N,M,replace=TRUE) # 検体IDごとに集計する t <- tabulate(s) # 関数にする my.divide.reads <- function(N,M){ s <- sample(1:N,M,replace=TRUE) t <- tabulate(s) ret <- rep(0,N) ret[1:length(t)] <- t return(ret) }
- そのうえで、多項分布でもできることを示す
# 別法 # 多項分布を使う t2 <- rmultinom(1,M,rep(1,N)) T2 <- rmultinom(10000,M,rep(1,N)) apply(T2,1,mean) S <- matrix(0,10000,N) for(i in 1:10000){ S[i,] <- my.divide.reads(N,M) }
Traceが1の自己随伴行列。そのpure stateとmixed state
- Traceが1の自己随伴行列で固有値がすべて非負のものは、密度行列と呼ばれ、固有値が確率を、固有ベクトルが対応する(離散的)状態を表している
- このような行列のうち、単位ベクトルの複素共役クロネッカー積([tex:|x>
Methods of Information Geometry (Tanslations of Mathematical Monographs)
- 作者: Shun-Ichi Amari,Hiroshi Nagaoka,Daishi Harada
- 出版社/メーカー: Amer Mathematical Society
- 発売日: 2007/04/13
- メディア: ペーパーバック
- クリック: 2回
- この商品を含むブログ (1件) を見る
- の第7章の冒頭(145ページ、146ページ)
generalized procrustes analysis
- 多変量解析の1つ
- 多検体・多変量情報があったときに、それを一括して処理して、多検体の「平均」を求める
- 多変量情報については、値の伸び縮みをさせたりする
- 空間座標が多変量情報の場合には、回転させたりもする
- そのようにして、「位置合わせ」をして、多検体の比較の標準化を提供しつつ
- 多変量間の関係をRV coefficient行列として提供してもくれる
- RV coefficientの情報から変量の分類・クラスタリングなどもできる
- Rでは、形関連のGPAとしてshapesパッケージが、多変量解析の1つとして他の多変量解析手法とともにFactoMineRパッケージがGPAを形解析用とは銘打たないで提供している
ぱらぱらめくる『ディープラーニングと物理学』
- 第1章 はじめに:機械学習と物理学
- 第1部 物理から見るディープラーニングの原理
- 第2章 機械学習の一般論
- 第3章 ニューラルネットワークの基礎
- 第4章 発展的なニューラルネットワーク
- 第5章 サンプリングの必要性と原理
- 第6章 教師なし深層学習
- 第2部 物理学への応用と展開
- 第7章 物理学における逆問題
- 第8章 相転移をディープラーニングで見いだせるか
- 第9章 力学系とニューラルネットワーク
- 第10章 スピングラスとニューラルネットワーク
- 第11章 量子多体系、テンソルネットワークとニューラルネットワーク
- 第12章 超弦理論への応用
- 第13章 おわりに
第1章 はじめに:機械学習と物理学
第1部 物理から見るディープラーニングの原理
- 情報量は驚きの大きさ
- 生起確率P(A)に対して、を情報量とする
- 確率変数には、の情報量が期待される(情報量の期待値、平均情報量)
- 生起確率がn等分の場合、平均情報量は
- 物理の系のエントロピーはこの値
- 物理学における情報量上の課題など。ブラックホールでは情報が失われる。パラドクス的な話は情報が出入りしていないかに着目して解消することもある
- 最尤推定は、KLd的に、を最小にするようなを推定すること。KLdを(物理学では)相対エントロピーと呼ぶ
- 物理と(KLdを使う)学習とは、情報でつながっているから、物理と学習もつながるのでは?
- パターン形成が起きたとすると、それは情報を使っていたと考えるべき(自発的にパターンが生じる現象は、(多分)別の話)
- 学習において、微分は残差、積分は特徴量。物理において、運動方程式で速さが微分、位置が積分。
第2章 機械学習の一般論
第3章 ニューラルネットワークの基礎
- 粒子が独立ではなく関係しあっていることは、2つの粒子の座標との距離に依存した項がハミルトニアンに加わるということで、結局という項の係数が0ではないことを意味する
- 学習では、何かと何かが関係しているかどうかを検出することが基本作業である。ハミルトニアンを立て、説明変数と被説明変数との積に関する項が0でない係数を持つかどうかを考える問題になる
- 熱力学では、実現されうるすべての場合と、特定の場合との比が、生起確率となると考え、そのような分布がボルツマン分布
- そのような設定から、誤差関数が導出できて、学習においては、その誤差関数の最小化をアルゴリズム的に実行している
- この時に出てくる誤差関数が、シグモイド関数や、その拡張であるsoftmax関数となっている
- ニューラルネットワークの各層では、非線形関数が適用され、出力として、統計力学的な意味での期待値が算出される
- 逆誤差伝搬法は、誤差関数の値を小さくするための方向を算出するもの。ブラとケットが順方向・逆方向に対応する
- ニューラルネットワークの万能近似定理。目的関数の非線形近似が得られ、中間層の数が増えれば増えるほど近似がよくなる
- 層の追加の効果は指数関数的な近似の改善をもたらす
第4章 発展的なニューラルネットワーク
- 畳み込みは座標非依存にする
- 学習結果を出力するときにも、畳み込みの逆を行うことがある。転置畳み込み
- 時系列情報処理には、前後時刻情報を入れる再帰的ネットワーク
- 勾配爆発・勾配消失があるとネットワークがうまく機能しない。更新過程を記憶しておく仕組み、解消する仕組みの導入により回避されうる(これは量子もつれ、とか、確定による情報消失等に対応する?)
- 注意機構という外部機構を入れることで性能が大幅に改善する場合もある(これは物理学で何に相当する?)
- ソートアルゴリズムとソリトン波は同じこと
- 1次元セルオートマトンでチューリング完全な世界が構成できる、言い換えるとコンピュータを持ちうる世界を構成できる。このことは、現代社会がコンピュータを所有している物理的世界の仕組みについて何か意味を持つのか、否か??
第5章 サンプリングの必要性と原理
第6章 教師なし深層学習
- 教師データがないので、サンプリングを用いて最小化対象を計算可能にする
- 相反する目的を持った学習同士を競わせる(GAN: Generative Adversarial Network)
- 問題を双対に変換するのは学習でも物理でも同じ
第2部 物理学への応用と展開
第7章 物理学における逆問題
- 直接的に測ることができない対象を知ること、結果から原因を推定すること、物理法則・支配方程式の決定、物理定数の決定など
- ニューラルネットワーク構造になっている脳を持った人間が、自然を観測し、物理法則を見出したのだから、それよりある意味で高性能な深層学習はさらに物理法則を見出すのでは?
- (では、そこでの数学の役割とは、何だろう?ある設定の下での規則を見出すことが数学ならば、同様に深層学習が生み出す定理とか、予想とかがあるのでは。さらに、『新しい数学』という「うまくできている人工的な仕組み~ニューラルネットワークが説明可能な仕組み~』の創出も?)
- 大事なのは「情報」が必要だということ。物理での情報は「観察」。量子力学では、「観察」することは「系に介入」することになっている