20190531 飯塚発表(議事録:石井) Capturing correlation with a mixed recursive logit model for activity-travel scheduling 羽藤>アプリケーションやろうとしたら,データを整えるし,しかし推定しただけではだめだから評価のためにクロスヴァリエーションする.論文の章立ての中で今自分はどこをやっているのかを考えながら研究することも大切. abstractは論文の最初につける.サマリーは大切.abstractの良し悪しは自分たちが読む論文の中にもあるのでそういった観点でも見てみる. 発表のときも先に道筋が通ってると聞いてる側もわかりやすい. ------ 羽藤>説明変数に活動時間は入ってくるのか? 飯塚>入ってこない.10分刻みで現在の活動を延長するのかどうかを選択する. 米澤>MNLのほうが実際の観測よりも多種の交通手段を使ってしまう.というところがよくわからなかった. 飯塚>MRLでは車を選択するリンク同士の相関が時間帯が違ってもでる.車を一度使うと,そのあとの時間でも車を使うことに効用が上がる. ------ 石井>活動の継続は10分継続.しかし活動や場所を変更する場合は1分刻みで.しかしながらそれらの選択肢について比較するということ? 継続を続けることで効用が上がるようなことはどうやって考慮する? 飯塚>そう. 活動継続における効用関数の中に説明変数として固有変数が入ってくる.そこで担保する. 石井>時間割引率という概念は入れない?入っていないというのはどういうことを想定している? 羽藤>出発の段階からすべてを想定している.先に行うことも後に行うことももともと決めているので,時間割引が行われない. が,RLなので,経路列挙の必要はない. ------ 羽藤> ネットワークの縮約が1つの参考にすべき点. どう縮約している? そのメリット,デメリットは? 飯塚> 空間方向の縮約はゾーンにしている点. 物理ネットワークで考えると,直近で行ける選択肢が減る. 羽藤> ゾーンでネットワークで切って,本屋で本買うとかの活動を行ってホテルに帰る.そういった行動が行われているエリアにおいて,街路の拡幅をしたらどう行動が変わるかを評価したい. このように政策変数を考慮したときにどういう区切り方をしたほうが良いか. みたいなところからモデルを考えるとよい. 飯塚>ゾーンで考えると舟運を入れるとLOSがアバウト セントロイド同士の移動だとアバウト セントロイドに発生が集約されてしまうので,各説明変数に入る値がおけてしまう. 舟運などを考えるのであればゾーンで区切るというのは向かない. 羽藤>ネットワークでやってもEmmaのモデルのようにできない? 飯塚>わからない 羽藤>駐車場をゾーンとして考えると,使えないが,ゾーンAの中にどの程度駐車場があるのかという形で評価するのであれば使える. ------ 出原>経路の類似性を誤差項の構造化で表現するというところが自分の論文に関連する. 相関の構造はあらかじめ与える? 飯塚>1000×1000みたいに各相関を考慮して,推定すること可能ではあるが,パラメータの数増えすぎるため人為的に減らす必要がある. ------ 羽藤>サンプリングで価値関数のところを決めている.将来の価値関数について,今松江駅にいる.サンプリングにはいろいろな回遊がある.それを価値関数に放り込む.その時のパラメータ値はどうしてる? 飯塚>既往研究でRLでやったパラメタを入れてる 羽藤>初期値としてそれを使う.しかしながらそのあと出てくるパラメータは違う.収束計算みたいなことはしないの? 飯塚>サンプルで600個の経路を作っている.NFXPとは異なる手段を用いている. 羽藤>一度価値関数に放り込んで,そこから最適化計算を行った際に,出てくるパラメータは放り込んだ初期値とは異なる.そこはどうしてる?収束計算していない? 飯塚>わからない 羽藤>小さいネットワークの場合,逆関数を求めるよりもサンプリングでやったほうがよくない? 羽藤>ベルマンの価値関数を考えると,実際の回遊行動で人が想起するのは3,4個の先くらいの行動なんだから,サンプリングの結果からでてくる価値関数のほうが,永遠と続くであろう先に起こる事象の可能性の考慮をするというようにする(逆関数で推定する)よりよいのではないかという話もある. ------ 渡邉>サンプリングのところが分からない 羽藤>Mcfadden選択肢を持ってるか持てないかに関する重みをかけたうえで計算しないと真の選択確率を求められない. 各個人で選択肢は違いうる.本当は選択確率の計算において,その選択 Mcfaddenのやつとかを読んでかみ砕いて,benakivaのmixed Logitを読んでみてもう一週くらいかけてみてください. 学生に固有の誤差項みたいな誤差項にサピックスをつけてそれぞれに固有の誤差項を積分していくことでバイアスを減らしていくというのがMixed Logit.その時の分布が正規分布を仮定している.