本資料は,Stan Advent Calendar 2016に向けて作成した資料です。Annis et al. (2016)による Bayesian inference with Stan: A tutorial on adding custom distributionsの内容やコードを紹介しつつ,Linear Ballistic Accumulator modelを用いた反応時間の解析について解説します。本資料の目的は以下の2点になります。
*ちなみ,2016年12月現在,Rstanがggplot2の最新版に対応できておらず,rstanのtraceplot()が使えなかったので,bayesplotパッケージを使ってみました。これが便利だったので,これの紹介も途中から副次的な目的に追加しています。
心理学や神経科学などにおいて,何か刺激を提示してから反応するまでにかかる反応時間を解析することが結構多いです。以下の図のように,二重丸が出てきたらボタンを押すという実験があったとします。この二重丸の提示からボタン押しまでにかかる時間を解析するのが反応時間の解析です。実際は,提示する刺激の性質を変化させたり,反応のルールを操作することで,反応時間に違いが生じるかを調べることが多いです。詳細は,脳科学辞典の反応時間を参照ください。
従来は,群間or条件間の平均値の差をt検定や分散分析で検定し,統計学的に有意な平均値の差をもって,実験的な操作や群の違いの効果を検証します。しかし,反応時間というものをよく考えると,その中にはいろいろな成分が入っています。下の図を見てください。刺激が出てから反応するまでには,(1)刺激の読み込み,(2)判断,(3)ボタンを押す動作の3つが含まれているかと思います。多くの研究者が関心をもつのは,「判断」の部分になります。そのため,「刺激の読み込み」と「ボタンを押す動作」のような無判断時間(Non Decision Time)と判断にかかる時間(Decision Time)に分けて考えるほうが自然かと思います。このような反応時間の生成についてのモデルとして,逐次サンプリングモデルがあり,その1つにLinear Ballistic Accumulator modelがあります(逐次サンプリングモデルの代表的なモデルとしては,Drift-Diffusion modelもありますが,今回は,よりシンプルなLinear Ballistic Accumulator modelを取り上げます)。Linear Ballistic Accumulator modelは,Brown & Heathcote(2008)によるThe simplest complete model of choice response time: Linear ballistic accumulationで提案されたモデルになります。
さて,関心のあるDecision Timeの中身をみていきます。Linear Ballistic Accumulator modelでは,私たちは判断を下すまでに徐々にその選択をする上でのエビデンスを蓄積し,それが閾値まで溜まったら,判断を下すと考えます(下図の右上の部分)。Drift-Diffusion modelの場合は,この蓄積過程にランダムウォーク的な要素が入りますが,Linear Ballistic Accumulator modelは,まさに,線形な弾道を描いてエビデンスを蓄積していきます。
Linear Ballistic Accumulator modelの前提として,反応時間は,エビデンスの蓄積が閾値(b)まで達した時になされます。その際の,エビデンスの蓄積率は,ドリフト率(d)と呼びます。各試行のドリフト率(d)は,平均v,標準偏差sの正規分布に従います。また,各試行の開始点(a)は,0からA(開始点の上限)の一様分布に従います。Decision Timeは,(b-a)/dで求めることができます。そして,Non decision Time(τ)は,全試行で一定と考えます。aとdは,推定するパラメータではなく,v, b, A, s, τ が推定するパラメータになります(sは,今回は1で固定している)。なお,閾値(b)は直接計算せず,b=k+Aと考えて,相対閾値(relative threshold: k)を推定します。
Linear Ballistic Accumulator modelでは,複数選択肢の反応時間の解析ができます(Drift-Diffusion modelの場合は,2選択肢に限定されます)。さきほど説明をしましたが,Linear Ballistic Accumulator modelでは,閾値までエビデンスが蓄積されたときに,反応が出力されるという前提があります。選択肢が複数ある場合,最も最初に閾値(b)に到達した選択肢の反応が出力されます(下図の場合,選択肢1の方が,選択肢2よりも先に閾値に到達しているので選択肢1が反応として出力されます)。なお,Linear Ballistic Accumulator modelでは,Decision Timeでエビデンスを蓄積するものをaccumulatorと呼びます(選択肢と言っても良いのですが,エビデンスの蓄積過程を明示的に扱っている感じなのかと思います)。
それでは,StanでLinear Ballistic Accumulator modelを使ってみたいのですが,2016年12月の時点では,StanにLinear Ballistic Accumulator modelにおける対数尤度を計算する関数は存在しません。そこで,functionsブロックで,ユーザー定義関数を設定する必要があります。今回は,AnnisらのBayesian inference with Stan: A tutorial on adding custom distributionsで紹介されていた関数を改変して使います。AnnisらのStanコードは,AnnisのHPにて配布されています。AnnisらのStanコードに対する主な改変点は,(1)Annisらのコードをstan2.10以降の記法に対応(<-を=に変更,_logを_lpdfに変更など),(2)Annisらのコードは,試行ごとの対数尤度を計算してなかったので(数十試行を1ブロックとして,1ブロックの対数尤度をまとめて計算),試行ごとの対数尤度を計算できるような変更の2点なります。以下では,Annisらのコードを改変したものについて説明をしていきます。
まず,特定のaccumulatorの確率密度関数(Probability density function)を計算する関数を説明します。特定のaccumulatorの確率密度関数は,以下の数式で計算されます(Brown & Heathcote, 2008)。
\[ f_i (t) = \frac{1}{A} [-v_i Φ(\frac{b-A-tv_i}{ts})+sϕ(\frac{b-A-tv_i}{ts})+v_i Φ(\frac{b-tv_i}{ts})-sϕ(\frac{b-tv_i}{ts})] \]
これをStanコードに落とし込むと,以下のlba_pdfになります。引数は,t,b,A, v_PDF, sになり(v_pdfは,vのことです),確率密度関数を返します。以下のlba_pdfは Annisらのコードを,Stan2.10以上の記法に修正しただけのものです。
real lba_pdf(real t, real b, real A, real v_pdf, real s){
real b_A_tv_ts;
real b_tv_ts;
real term_1b;
real term_2b;
real term_3b;
real term_4b;
real pdf;
b_A_tv_ts = (b - A - t * v_pdf) / (t * s);
b_tv_ts = (b - t * v_pdf) / (t * s);
term_1b = v_pdf * Phi(b_A_tv_ts);
term_2b = s * exp(normal_lpdf(fabs(b_A_tv_ts)|0, 1));
term_3b = v_pdf * Phi(b_tv_ts);
term_4b = s * exp(normal_lpdf(fabs(b_tv_ts)|0, 1));
pdf = (1 / A) * (-term_1b + term_2b + term_3b - term_4b);
return pdf;
}
次に特定のaccumulatorの累積密度関数(Cumulative Density Function)を計算する関数を説明します。特定のaccumulatorの累積密度関数は,以下の数式で計算されます(Brown & Heathcote, 2008)。
\[ F_i (t)=1+\frac{b-A-tv_i}{A} Φ(\frac{b-A-tv_i}{ts})-\frac{b-tv_i}{A}Φ\frac{b-tv_i}{ts}+\frac{ts}{A}ϕ(\frac{b-A-tv_i}{ts})-\frac{ts}{A}ϕ(\frac{b-tv_i}{ts}) \]
これをStanコードに落とし込むと,以下のlba_cdfになります。引数は,t,b,A, v_cdf, sになり(v_cdfは,vのことです),累積密度関数を返します。以下のlba_cdfは,Annisらのコードを,Stan2.10以上の記法に修正しただけのものです。
real lba_cdf(real t, real b, real A, real v_cdf, real s){
real b_A_tv;
real b_tv;
real ts;
real term_1a;
real term_2a;
real term_3a;
real term_4a;
real cdf;
b_A_tv = b - A - t * v_cdf;
b_tv = b - t * v_cdf;
ts = t * s;
term_1a = b_A_tv / A * Phi(b_A_tv / ts);
term_2a = b_tv / A * Phi(b_tv / ts);
term_3a = ts / A * exp(normal_lpdf(fabs(b_A_tv / ts)|0, 1));
term_4a = ts / A * exp(normal_lpdf(fabs(b_tv / ts)|0, 1));
cdf = 1 + term_1a - term_2a + term_3a - term_4a;
return cdf;
}
上で定義した,lba_cdfとlba_pdfは,時間tにおいて,i番目のaccumulatorが閾値に到達した確率密度や累積密度を算出するものです。これら2つを用いて,複数のaccumulatorがある状況で,どのaccumulatorが最初に閾値に到達するのかに関する確率密度関数を算出するのが以下の数式になります。以下の数式をみると,i番目のaccumulatorが一番最初に閾値に到達する確率密度関数は,accumulator iの確率密度関数と(1-それ以外のaccumulatorの累積密度関数)の総積をかけたものになります。ざっくり説明すると,時間tにおいて,選択肢iが閾値に到達する確率と他の選択肢が閾値に到達する累積確率の残り(つまり,その他の選択肢が閾値に到達しない確率)を掛け合わせています。
\[ PDF_i (t)=f_i (t)\prod_{j\neq i}(1-F_j (t)) \]
Annisらは,上記の式から対数尤度を計算する関数を作成しています(lba_log)。まず,このlba_logについて,Stan2.10以上の記法に修正したlba_lpdfを作成しました。さらに,Annisらのlba_logでは,対数尤度は個々の反応時間に対して計算されるのではなく,すべての試行の反応時間をまとめた行列に対して計算されます。パラメータの推定では,これで問題は無いように思いますが(実際,計算すると同じ推定結果になる),WAICなどの計算をした場合に,微妙なのではないかと思いました(私の理解では,WAICの計算では,個々のデータについて対数尤度を計算する必要があるように思います)。そこで,条件などでひとまとまりになった反応時間ではなく,個々の反応時間について対数尤度を計算できるような改変をおこなっています。
real lba_lpdf(real rt, real res, real k, real A, vector v, real s, real tau){
real t;
real b;
real cdf;
real pdf;
real prob;
real out;
real prob_neg;
b = A + k;
t = rt - tau;
if(t > 0){
cdf = 1;
for(j in 1 : num_elements(v)){
if(res == j){
pdf = lba_pdf(t, b, A, v[j], s);
}else{
cdf = (1 - lba_cdf(t, b, A, v[j], s)) * cdf;
}
}
prob_neg = 1;
for(j in 1 : num_elements(v)){
prob_neg = Phi( - v[j] / s) * prob_neg;
}
prob = pdf * cdf;
prob = prob / (1 - prob_neg);
if(prob < 1e-10){
prob = 1e-10;
}
}else{
prob = 1e-10;
}
out = log(prob);
return out;
}
lba_rngは,Linear Ballistic Accumulator modelに基づいて,反応時間と反応を生成する乱数発生関数です。出力はpredであり,pred[1]が反応時間,pred[2]が反応です。以下のlba_rngは,Annisらのコードを,Stan2.10以上の記法に修正しただけのものです。
vector lba_rng(real k, real A, vector v, real s, real psi){
int get_pos_drift;
int no_pos_drift;
int get_first_pos;
vector [num_elements(v)] drift;
int max_iter;
int iter;
real start[num_elements(v)];
real ttf[num_elements(v)];
int resp[num_elements(v)];
real rt;
vector [2] pred;
real b;
//try to get a positive drift rate
get_pos_drift = 1;
no_pos_drift = 0;
max_iter = 1000;
iter = 0;
while(get_pos_drift){
for(j in 1 : num_elements(v)){
drift[j] = normal_rng(v[j], s);
if(drift[j] > 0){
get_pos_drift = 0;
}
}
iter = iter + 1;
if(iter > max_iter){
get_pos_drift = 0;
no_pos_drift = 1;
}
}
//if both drift rates are <= 0
//return an infinite response time
if(no_pos_drift){
pred[1] = - 1;
pred[2] = - 1;
}else{
b = A + k;
for(i in 1 : num_elements(v)){
//start time of each accumulator
start[i] = uniform_rng(0, A);
//finish times
ttf[i] = (b-start[i]) / drift[i];
}
//rt is the fastest accumulator finish time
//if one is negative get the positive drift
resp = sort_indices_asc(ttf);
ttf = sort_asc(ttf);
get_first_pos = 1;
iter = 1;
while(get_first_pos){
if(ttf[iter] > 0){
pred[1] = ttf[iter];
pred[2] = resp[iter];
get_first_pos = 0;
}
iter = iter + 1;
}
}
return pred;
}
ユーザー定義関数が作成できましたので,いよいよ,Rstanを使って解析をしていきましょう!
今回は,以下のパッケージを用います。
library(DiagrammeR)
library(ggplot2)
library(plotly)
library(bayesplot)
library(rstan)
library(loo)
library(rtdists)
DiagrammeRのgrVizを使って,グラフィカルモデルを描いてみました。むしろ面倒ではないかという気もします,慣れれば多分便利です。おそらく。
grViz("
digraph dot {
graph [splines = line,compound = true, nodesep = .5, ranksep = .25,
color = black, label='Linear Ballistic Accumulator Model for single participant']
node [shape = circle,style = filled,fillcolor = white,color = black,label = 'k'] k
node [label = 'A'] A
node [label = 'τ'] t
node [label = 'v[1]'] v1
node [label = 'v[2]'] v2
node [label = 'S'] s
node [label = 'LBA@_{t}'] lba
node [fillcolor = grey,label = 'RT@_{t}'] rt
subgraph cluster3 {
labelloc=b
label = 'Trials t = 1...T'
edge [color = black]
lba -> rt
}
edge [color = black]
A -> lba
v1 -> lba
v2 -> lba
k -> lba
t -> lba
s -> lba [taolport=s,headport=e]
}",engine = "dot")
事前分布はAnnisらを参考に以下に設定しました。Sは定数になります。 \[ k \sim Normal(.5,1)T[0,]\\ A \sim Normal(.5,1)T[0,]\\ \tau \sim Normal(.5,.5)T[0,]\\ v[1],v[2] \sim Normal(2,1)T[0,]\\ S = 1 \hspace{30pt} \]
rtdistsのrLBA関数を用いて,A=0.5, b=1, tau(ここではt0) = 0.5, v[1]=2, v[2]=1.5, s=1のときの反応時間と反応を500個生成しました。つまり,一人の参加者が500回も反応をしたという想定です(ちょっと試行数多いですね・・・)。作ったデータは,dataに格納し,さらにstanDataにStanで使えるようにリスト形式で保存しています。
#データセットの作成
set.seed(1234)
data <- rLBA(500, A=0.5, b=1, t0 = 0.5, mean_v=c(2, 1.5), sd_v=c(1,1))
trialLength = length(data$rt)
stanData <- list(rt=data$rt,res=data$response,LENGTH=trialLength,NUM_CHOICES=2)
選択肢ごとの反応数です。
table(data$response)
##
## 1 2
## 304 196
選択肢ごとの反応時間のヒストグラムです。左が選択肢1,右が選択肢2になります。
# 選択肢1の反応時間
data1 <- subset(data,data$response==1)
p1 <- ggplot(data1,aes(x = rt)) + geom_histogram()+coord_cartesian(xlim = c(0, 3), ylim = c(0, 70))
# 選択肢2の反応時間
data2 <- subset(data,data$response==2)
p2 <- ggplot(data2,aes(x = rt)) + geom_histogram()+coord_cartesian(xlim = c(0, 3), ylim = c(0, 70))
subplot(p1, p2)
上記で設定したfunctionブロックだけでなく,dataブロック以降も書きました。
*なお,以降は,@kazutan氏のStan Advent 2016の記事を参考に,R MarkdownにStanコード直書きしてコンパイルする方法をとっています。つまり,チャンクで,{stan output.var=“lbaModel”}と指定しています。
*2016/12/22追記:どうもRmarkdownでStanチャンクを使ってHTMLファイルを出力すると,:や一部の演算子の前後にスペースをいれないと正確に表示されないことがあるようです(バグかな?)。コード自体は正確に動くので,エラーに気づきにくかったりします。出来る限り,エラーを修正しましたが,一部まだエラーが残っているかもしれません。こちらに,本資料を作るときに使用したRmdファイルをおいておくので,解析を自分でもやってみる場合は,こちらをダウンロードください。
functions{
real lba_pdf(real t, real b, real A, real v, real s){
//PDF of the LBA model
real b_A_tv_ts;
real b_tv_ts;
real term_1;
real term_2;
real term_3;
real term_4;
real pdf;
b_A_tv_ts = (b - A - t * v) / (t * s);
b_tv_ts = (b - t * v) / (t * s);
term_1 = v * Phi(b_A_tv_ts);
term_2 = s * exp(normal_lpdf(b_A_tv_ts|0, 1));
term_3 =v * Phi(b_tv_ts);
term_4 = s * exp(normal_lpdf(b_tv_ts|0, 1));
pdf = (1 / A) * (-term_1 + term_2 + term_3 - term_4);
return pdf;
}
real lba_cdf(real t, real b, real A, real v, real s){
//CDF of the LBA model
real b_A_tv;
real b_tv;
real ts;
real term_1;
real term_2;
real term_3;
real term_4;
real cdf;
b_A_tv = b - A - t*v;
b_tv = b - t * v;
ts = t*s;
term_1 = b_A_tv / A * Phi(b_A_tv / ts);
term_2 = b_tv / A * Phi(b_tv / ts);
term_3 = ts / A * exp(normal_lpdf(b_A_tv / ts|0, 1));
term_4 = ts / A * exp(normal_lpdf(b_tv / ts|0, 1));
cdf = 1 + term_1 - term_2 + term_3 - term_4;
return cdf;
}
real lba_lpdf(real rt, real res, real k, real A, vector v, real s, real tau){
real t;
real b;
real cdf;
real pdf;
real prob;
real out;
real prob_neg;
b = A + k;
t = rt - tau;
if(t > 0){
cdf = 1;
for(j in 1 : num_elements(v)){
if(res == j){
pdf = lba_pdf(t, b, A, v[j], s);
}else{
cdf = (1 - lba_cdf(t, b, A, v[j], s)) * cdf;
}
}
prob_neg = 1;
for(j in 1 : num_elements(v)){
prob_neg = Phi( - v[j] / s) * prob_neg;
}
prob = pdf * cdf;
prob = prob / (1 - prob_neg);
if(prob < 1e-10){
prob = 1e-10;
}
}else{
prob = 1e-10;
}
out = log(prob);
return out;
}
vector lba_rng(real k, real A, vector v, real s, real tau){
int get_pos_drift;
int no_pos_drift;
int get_first_pos;
vector[num_elements(v)] drift;
int max_iter;
int iter;
real start[num_elements(v)];
real ttf[num_elements(v)];
int resp[num_elements(v)];
real rt;
vector[2] pred;
real b;
//try to get a positive drift rate
get_pos_drift = 1;
no_pos_drift = 0;
max_iter = 1000;
iter = 0;
while(get_pos_drift){
for(j in 1 : num_elements(v)){
drift[j] = normal_rng(v[j],s);
if(drift[j] > 0){
get_pos_drift = 0;
}
}
iter = iter + 1;
if(iter > max_iter){
get_pos_drift = 0;
no_pos_drift = 1;
}
}
//if both drift rates are <= 0
//return an infinite response time
if(no_pos_drift){
pred[1] = - 1;
pred[2] = - 1;
}else{
b = A + k;
for(i in 1:num_elements(v)){
//start time of each accumulator
start[i] = uniform_rng(0,A);
//finish times
ttf[i] = (b-start[i])/drift[i];
}
//rt is the fastest accumulator finish time
//if one is negative get the positive drift
resp = sort_indices_asc(ttf);
ttf = sort_asc(ttf);
get_first_pos = 1;
iter = 1;
while(get_first_pos){
if(ttf[iter] > 0){
pred[1] = ttf[iter] + tau;
pred[2] = resp[iter];
get_first_pos = 0;
}
iter = iter + 1;
}
}
return pred;
}
}
data{
int LENGTH;
int NUM_CHOICES;
vector[LENGTH] rt;
vector[LENGTH] res;
}
parameters {
real<lower=0> k;
real<lower=0> A;
real<lower=0> tau;
vector<lower=0>[NUM_CHOICES] v;
}
transformed parameters {
real s;
s = 1;
}
model {
k ~ normal(.5, 1)T[0,];
A ~ normal(.5, 1)T[0,];
tau ~ normal(.5, .5)T[0,];
for(n in 1:NUM_CHOICES){
v[n] ~ normal(2, 1)T[0,];
}
for(m in 1:LENGTH){
rt[m] ~ lba(res[m], k, A, v, s, tau);
}
}
generated quantities {
vector[2] pred;
vector[LENGTH] log_lik;
pred = lba_rng(k, A, v, s, tau);
for(i in 1 : LENGTH){
log_lik[i] = lba_lpdf(rt[i] | res[i], k, A, v, s, tau);
}
}
さてさて,サンプリングしてみます。
rstan_options(auto_write=TRUE)
options(mc.cores = parallel::detectCores())
hmcIter = 1000
hmcChains = 4
hmcWarmup = 300
hmcThin = 2
fit <- sampling(lbaModel,
seed = 1234,
data = stanData,
warmup = hmcWarmup,
iter = hmcIter,
chains = hmcChains,
thin =hmcThin)
収束判定には,bayesplotを活用しました。このページが参考になります。収束していそうですね。
posterior1 <- extract(fit, inc_warmup = TRUE, permuted = FALSE)
color_scheme_set("mix-blue-pink")
p <- mcmc_trace(posterior1, pars = c("k", "A", "tau", "v[1]", "v[2]"), n_warmup = 125,
facet_args = list(nrow = 2, labeller = label_parsed))
p <- p+ facet_text(size = 15)
plot(p)
color_scheme_set("brightblue")
rhats <- rhat(fit,par = c("k", "A", "tau", "v[1]", "v[2]"))
print(rhats)
## k A tau v[1] v[2]
## 1.017828 1.018959 1.016582 1.005795 1.006120
mcmc_rhat(rhats) + yaxis_text()
neffRatios <- neff_ratio(fit,par = c("k", "A", "tau", "v[1]", "v[2]"))
print(neffRatios)
## k A tau v[1] v[2]
## 0.2626307 0.2873580 0.2842532 0.3271760 0.3062965
mcmc_neff(neffRatios) + yaxis_text()
posterior2 <- as.matrix(fit)
mcmc_acf(posterior2, pars = c("k","A","tau","v[1]","v[2]"), lags = 10)
bayesplotで簡単に描けたので,No-U-Turn Samplerの診断も載っけてみました。
mcmc_nuts_divergence(nuts_params(fit), log_posterior(fit))
mcmc_nuts_energy(nuts_params(fit),merge_chains = FALSE)
MAP推定値を求めるmapEstimateを定義して,MAP推定値も算出してみます。
mapEstimate <- function(z){
density(z)$x[which.max(density(z)$y)]
}
extractFit <- rstan::extract(fit)
kMap <- mapEstimate(extractFit$k)
AMap <- mapEstimate(extractFit$A)
tauMap <- mapEstimate(extractFit$tau)
v1Map <- mapEstimate(extractFit$v[,1])
v2Map <- mapEstimate(extractFit$v[,2])
推定結果を以下に示します。もともと,A=0.5, b=1(つまりk=0.5), tau = 0.5, v[1]=2, v[2]=1.5, s=1でデータを作っていました。データの生成の段階でもノイズが入るので,まあまあパラメータリカバリできているかなとは思いますが,データ生成などのシードを変えるだけでも結構結果は変わってきます。
print(fit,par = c("k", "A", "tau", "v[1]", "v[2]","s"))
## Inference for Stan model: 91132146a708a195759bffc70272f2a3.
## 4 chains, each with iter=1000; warmup=300; thin=2;
## post-warmup draws per chain=350, total post-warmup draws=1400.
##
## mean se_mean sd 2.5% 25% 50% 75% 97.5% n_eff Rhat
## k 0.78 0.01 0.25 0.37 0.56 0.75 0.98 1.25 368 1.02
## A 0.47 0.01 0.24 0.03 0.28 0.50 0.67 0.89 402 1.02
## tau 0.44 0.00 0.05 0.36 0.41 0.44 0.48 0.53 398 1.02
## v[1] 2.29 0.01 0.18 1.97 2.16 2.28 2.40 2.67 458 1.01
## v[2] 1.85 0.01 0.19 1.50 1.73 1.85 1.96 2.23 429 1.01
## s 1.00 0.00 0.00 1.00 1.00 1.00 1.00 1.00 1400 NaN
##
## Samples were drawn using NUTS(diag_e) at Thu Dec 22 19:27:23 2016.
## For each parameter, n_eff is a crude measure of effective sample size,
## and Rhat is the potential scale reduction factor on split chains (at
## convergence, Rhat=1).
# MAP推定値
print(paste("k=",kMap,",A=",AMap,",tau=",tauMap,",v1=",v1Map,",v2=",v2Map))
## [1] "k= 0.54258620404962 ,A= 0.625460437360113 ,tau= 0.43244852898887 ,v1= 2.2966230552595 ,v2= 1.89780740362509"
bayesplotのmcmc_areasを使って事後分布を描いてみました。複数のパラメータの事後分布が簡単かつきれいに描けて便利ですね。
mcmc_areas(posterior2, pars = c("k", "A", "tau", "v[1]", "v[2]"), prob = 0.95)
収束もしていたので,事後予測チェックをしてみます。Stanが吐き出したpredからそれぞれ500サンプルをランダムに抽出したデータセットを2つ作ってみました。
predRt = posterior2[,'pred[1]']
predRes = posterior2[,'pred[2]']
postPredData <- data.frame(predRt,predRes)
# 事後予測サンプルから500個抽出その1
set.seed(321)
sampleId<-sample(nrow(postPredData),500)
postPredData1<-postPredData[sampleId,]
# 事後予測サンプルから500個抽出その2
set.seed(123)
sampleId<-sample(nrow(postPredData),500)
postPredData2<-postPredData[sampleId,]
クロス集計で確認をします。まあまあ,良い感じかな。
#元のデータ
table(data$response)
##
## 1 2
## 304 196
#事後予測その1
table(postPredData1$predRes)
##
## 1 2
## 296 204
#事後予測その2
table(postPredData2$predRes)
##
## 1 2
## 308 192
反応時間のヒストグラムも良い感じかな。
data1 <- subset(data,data$response==1)
p1 <- ggplot(data1,aes(x = rt)) + geom_histogram()+coord_cartesian(xlim = c(0, 3), ylim = c(0, 70))
data2 <- subset(data,data$response==2)
p2 <- ggplot(data2,aes(x = rt)) + geom_histogram()+coord_cartesian(xlim = c(0, 3), ylim = c(0, 70))+ ggtitle("データの反応時間のヒストグラム(左が選択肢1,右が選択肢2)")
subplot(p1,p2)
postPredData11 <- subset(postPredData1,postPredData$predRes==1)
p3 <- ggplot(postPredData11,aes(x = predRt)) + geom_histogram()+coord_cartesian(xlim = c(0, 3), ylim = c(0, 70))
postPredData12 <- subset(postPredData1,postPredData$predRes==2)
p4 <- ggplot(postPredData12,aes(x = predRt)) + geom_histogram()+coord_cartesian(xlim = c(0, 3), ylim = c(0, 70))+ ggtitle("事後予測の反応時間のヒストグラム その1(左が選択肢1,右が選択肢2)")
subplot(p3,p4)
postPredData21 <- subset(postPredData2,postPredData$predRes==1)
p5 <- ggplot(postPredData21,aes(x = predRt)) + geom_histogram()+coord_cartesian(xlim = c(0, 3), ylim = c(0, 70))
postPredData22 <- subset(postPredData2,postPredData$predRes==2)
p6 <- ggplot(postPredData22,aes(x = predRt)) + geom_histogram()+coord_cartesian(xlim = c(0, 3), ylim = c(0, 70))+ ggtitle("事後予測の反応時間のヒストグラム その2(左が選択肢1,右が選択肢2)")
subplot(p5,p6)
@berobero11氏のStan Advent 2016を参考にしつつWAICとLOOCVの算出をしてみました。今回は,あまり意味ないけど,今後モデル比較する場合に,活用できるかなと思います。
loo::loo(extractFit$log_lik)$looic/(2*trialLength)
## [1] 0.1476174
loo::waic(extractFit$log_lik)$waic/(2*trialLength)
## [1] 0.1476131
ここまで出来たら,複数の参加者のデータに対して階層ベイズにもっていきたいところですが,ちょっと分量が長くなっちゃったので,またの機会に!
Enjoy Stan!