●羽藤:はじめに

第12回BinNセミナーということで、行動モデルの話をする訳ですが、データが相当上がってくるようになってきていて、そうしたビッグデータと従前の出発時刻選択や歩行者行動モデルなどとの関連を改めてじっくり議論してみようということで第12回BinNセミナーを企画しました。プログラムでは、ビッグデータといってもそれを切るためのモデルがないといけないということで、観測と交通管制そして出発時刻に関する動的な基礎理論をずっとやっている桑原先生に基調講演としてお話頂いた後、兵藤先生が物流データについてお話していただきます。従前は交通行動モデルということで需要の側のモデルが非常に多かったのですが、物流の交通に占める比重も高まっていてデータも相当溜まってきています。ただ、なかなかこうした分野はデータが民間にはあっても研究者サイドになくて、よくわかっていないから研究が進まないという状況にありますので、こういった話題提供から我々の分野で何ができるかを議論したいと考えています。次の福田先生はここ数年時間信頼性というテーマに交通管制システムや行動モデルの観点から取り組んでおられて、従前は混みます/混みませんのように交通管制の評価を行っていたものを、信頼性をネットワークの評価につなげるのかとう視点で行動モデル的視点で研究されていますので、そうした話を伺うことにしています。佐々木先生からはそれらの統括を展開していただくことを期待しています。

あとは、若手の学生2名をお招きしてテーマを出してちょっと議論したいと思っています。1つは清水英範先生と布施先生の研究室の博士2年の中西さんから観測方程式を組み込んだ歩行者行動モデルのお話を伺います。この分野では布施先生などが画像処理や観測について技術的なところから展開していたところを、行動モデルと融合的にどう推定するかということで進展が著しく、車の追従などにも使えるかと思うので、深めた議論を行動モデル側からもしたい。

伊藤くんからは、PT調査とPP調査を融合的に使って交通管制にどう生かすかということや、PTは抜け落ちが多いのでPPでどう補正するかということについて適用した例を報告して議論したいと思っています。桑原先生のお話は若手の皆さんは相当勉強になると思います。活発に質問・議論して頂ければと思います。

●桑原:ビッグデータ時代の交通管制:出発時刻モデルの基礎理論とその展開

タイトルは羽藤さんにつけられてしまって、どういったことを話そうかと考えたのですが、交通データのフュージョンに関係した解析と、10数年前からやっている出発時刻モデルについてかいつまんでお話したいと思います。

交通工学分野ではループ式・超音波式感知器がよく使われます。この2つがセンサーの代表的なもので、現在はAVIなどもありますが、データ量として多いのは感知器です。ループ式は主に都市間高速で使われていて路面の下に埋め込まれています。超音波式は首都高や一般街路の信号交差点手前などによく設置されています。

図はある地点の車両感知器のデータを、神戸大・井料さんが3年間プロットしたものです。交通量の大小を5分間のトラカンのデータでプロットしています。これだけ3年間の大量のデータを集めると、どの時間帯に混むか、夕方の交通量が日の長さで変化するか、などがわかったりします。データを大量に集めるとちょこっとでは見えないものが見えてくることもあるということです。

これも車両感知器のデータで皆さんご存じのqvカーブですが、私も驚いたのですが、降雨量によってqvの形がきれいにわかれています。また、カーブのトップの交通容量も5%、10%変化するということがわかります。

今のは首都高・浜崎橋のトラカンデータを3年間集めたものですが、今度はあるエリアのトラカンのデータを全部ひっくるめて平均をとったもので、Macro-scopic Fundamental Diagram(MFD)といいます。ある1ヶ所のqvカーブ・qkカーブをFundamental Diagramといいますが、それをあるエリア全体で集計したものです。エリア全体で合体しても似たような形状の図が得られるということで、何人かの研究者がエリアの特性を表す指標としてMFDを使って、エリアの交通制御に使えないか研究しています。東北大の赤松先生も興味をもっていて、吉井先生も阪高での分析をされています。

超音波感知器は超音波が首都高の場合だと1秒に20回ほど出ていて、超音波が路面に当たって返るか車体に当たって返るかで超音波の返るまでの時間が違いますから車両の有無がわかります。車両感知器をダブルで5mくらいの間隔で置くことで、2つの感知領域に何秒遅れて車が入ってきたかを調べて、速度がわかるようになっています。

最近我々がトライしているのは、車両感知器で原理的には加速度が取得できるだろうということです。ある決められた感知領域に車が入っている時間をパルスの長さというのですが、ある地点のパルス長さと5m離れた地点でのパルス長の変化分をとることで加速度が原理的にはわかるのですが、首都高の箱崎でやってみました。

図はピンク色プロットが加速度、青色プロットが速度ですが、加速度はばらついてよくわからないのですが、低速度域の速度が20~40km/hくらいでは加速度がまとまっている感じです。パルスが1秒間に20回くらいしか打たれないので、加速度の精度は上がりませんが、もっと連続的に打てれば精度が良くなるはずです。地面に埋め込まれたループ式だと、もう少し精度が良くなる可能性もあります。

もう一つの車両探知機の使い方は、Vehicle Signitureと呼ばれるもので、ある感知器の下に車が入ると車両のパルスの波形がわかります。離れた地点同士で車両パルスのマッチングをすることによって、ナンバープレートのマッチングのように、ある車がある場所からある場所へ行くのに何分くらいかかったかというようなセンシングの試みも行われています。最近では我が国ではあまりやられておりませんが、カリフォルニアや香港で試みが行われていると聞いています。

2地点間の車両マッチングとしてはナンバープレート自動読み取り装置、AVIが我が国にも沢山着いていて、それを使うと2地点間の車両マッチングが行えて旅行時間がわかります。ただしAVIでわかるのは2地点間の通過時刻だけで、2地点間の間の車の挙動はわからない。

その他の最近のセンサーがVICSがありますが、VICSは赤外線と電波で通信するしますが、赤外線ビーコンはダウンリンクとアップリンクがあって、アップリンクは車両ID番号などを送ってAVIのような機能を果たします。電波ビーコンは2.4Gから5.8Gになっていて、ITSスポットといって、走りながら車両IDをアップリンクできる。VICSはビーコンを沢山作ったが車の普及状況がわるく、あまりデータはそれほどとれていないようです。

いろんなプローブデータがあって、赤外線ビーコン・電波ビーコンもある意味プローブで、タクシーやバスの業務用無線や、自動車会社が3G回線で収集しているようなプローブ情報をいかに活用するかが最近のホットなトピックになっています。プローブ情報はホンダなどが収集していますが、それを見せている動画です。何年ものプローブ情報を重ね合わせると道路や国の形も見えてきます。

テレマティックスと呼ばれる自動車会社が収集しているデータは、トヨタ・日産なども沢山収集していますが、なかなか共有されていないようです。最近の私の研究テーマとして、プローブと従来型の感知器データを融合してもう少しプローブが本来持っている情報を100%利用した活用方法を考えようと思っています。最近はある地点からある地点を走る全ての車の移動軌跡を推定できないかということを考えています。

図はタイムスペースダイアグラムですが、1台のプローブの軌跡がわかるとある区間でどんなときに減速・加速・発進をしているかがわかるわけです。こういうことが実際分かるのですが、これまでのところプローブデータは沢山の情報を捨てて、あるリンクの旅行時間という形でしか使われていなかったのです。したがって、軌跡全体のリッチな情報を是非活用したい。

信号交差点で信号現示の秒数がわかっている。そのときにプローブとプローブ以外の両方の車が走っています。プローブのデータと、トラカンの流入流出データを融合して、わかっていない軌跡も推定できないかということをします。手法は理論的にはKinematic Wave Theoryと呼ばれて、50年代にLighthill、Whitham、Richardsの3人の物理屋さんがほぼ同時に提案した理論です。それは交通シミュレーションで車を動かす基礎理論にもなっています。その後NewellはKinematic Waveに累積図の概念を取り入れて、タイムスペース図と累積図の関係を整理しました。更に近年variational theoryをDaganzoがKinematic Waveの効率的な計算方法を提案しています。この3つの理論を借りて軌跡の推定をしているわけです。

図は東北大で学部生に見せているタイムスペースダイアグラムと累積図の関係を模型にして立体で示したものです。こちらからみると1本1本の線がタイムスペース図になっていますが、それを段々積み重ねると模型ができて、横から見ると累積図になっています。

軌跡の推定はどうしているかというと、実は軌跡そのものを推定しているわけではなくて、累積図の高さを推定しています。タイムスペースダイアグラムで高さを推定してあげて、あとで等高線を引きます。同じ車は同じ高さをずっと走るので、高さを推定して軌跡を描くということになります。

理論のさわりですが、Moving observerといいます。図のような交通状態でB点の累積高さNBとP点の累積高さNPとすると、自分がBにいて、どの高さにいるかわかっている時に、P点の高さを推定するという問題になります。自分がBからPに行く時に、自分が何台追い越すかまたは追い越されるかがわかれば、P点の高さがわかる。自分が1台追い越されたらP点の高さは自分より1段高い高さになります。Personal Fundamental Diagram上で自分が最大で追い越せる台数が何台だろうと考えます。追い越す台数というのは、Fundamental Diagram上で自分の動きと平行する接線を書いて、図の間隔の分がその台数になります。

自分が最大追い越す台数が何台か考えてみます。そのときFundamental Diagramを三角形にするとずっと簡単になりまして、自分が動いた時に追い越した台数は常に三角形の頂点との幅になりまして、B点からP点まで行く時に、結論からいうとB点の高さがわかっているときに、自分が動く経路に依存しないでP点までの間に何台追い越すかがわかります。非常に簡単な計算で任意の場所の高さの推定ができます。

結局のところどうやっているかというと、Fundamental Diagramが仮定された道路区間に流入・流出する台数が感知器でわかっていて、流入地点での累積図とプローブの軌跡、そして流出地点での累積図がわかれば、Kinematic Waveより流入側からのForward Waveと流出側からのBackward Waveがわかって、そのミニマムをとれば、高さがわかります。高さがわかれば等高線を引けば軌跡がわかる、そんなような仕組みです。

これを東京・駒沢通りの1kmちょっとの区間で推定しました。この区間に信号交差点が5つか6つあります。区間入口出口のトラカンデータと、白線のプローブ軌跡、赤線での信号交差点の現示を図に入力データ出示しています。

1本だけのプローブの軌跡と、流入・流出のトラカンデータ、信号データのみで推定した結果、緑と青の軌跡が交互に書けています。推定軌跡が黄緑ですが、同時刻の実データプローブの白線を比べるとそこそこ合っているという感じです。どんぴしゃは当たりませんが、信号交差点の遅れの伝搬などがわかる。単にプローブの旅行時間のみを使うよりも詳細な分析ができます。これによって旅行時間の変動やエネルギー消費までわかるかというわけです。

ただし、このモデルは区間途中からの車両出入りは考慮していません。実際は区間途中での出入りは沢山あるので、どうするかということですが、測ってどのタイミングで出入りがあるかわかれば推定できますが、一般にはそんな細かいデータはないわけです。そこでどうしたかというと、どこから入ったかはわからないが、ユニークな結果は得られないが任意のところに差し込んでみると、より推定値に近づくようなことができました。

もう一つの拡張は、単路区間から面的にネットワークへの拡張をしようと考えていて、それはそんなに難しくなくて、わかっている部分があったときに、それぞれの区間でin/outの情報さえあれば推定できるわけです。ただし、各区間のinとoutの情報をセンサーで得るのは難しくて、今考えているのは車両感知器が各リンクの上流端についていて信号秒数もわかっていれば、トラカンデータの組み合わせて、左折右折直進などの確率を推計してあげると、全てのリンクのin/outが推計できます。そういったことを今やっています。

ここまでが第1部で、ここからが出発時刻選択の話です。私は1985年にバークレーでPh.Dをとったのですが、その時の博論のテーマが出発時刻選択に関するものでした。なぜそうしたかというと、その当時出発時刻選択問題が流行っていて、1960年代後半にノーベル経済学賞をとったVickreyがSchedule Delayという概念を導入して出発時刻の選択問題を作りました。その5,6年あとに交通側が目を付けて、単一ボトルネックでの渋滞分析にその理論を適用し始めました。Hurdle、Hendrickson、Smithといった人たちは理論を補強していきました。私もそこにちょっといたので、単一ボトルネックを複数ボトルネックに拡張できないかということを博論でやりました。ほぼ時を同じくして、私の指導教官だったNewellが個人差を考慮した問題で扱った。またほぼ同時期にBen-AkivaやMahmassaniが確率的な取り扱いをしたのです。そうこうするうちに80年代後半以降は下火だったのが2000年代半ばに神戸大の井料君がいい研究をしました。彼の修論と博論が出発時刻に関する研究で、彼は個人差がある問題を扱ったのを拡張して、個人差があってODパターンがmany-to-manyで複数ボトルネックで、ただしボトルネックは1回しか通過しないという問題で、定式化に成功しました。

単一ボトルネックのお話をここでしたいと思います。Vickreyのモデルでは希望到着時刻があって、ちょうどその時間に付ければSchedule Delayが0、ただしそれより早く着いたり遅く着いたりするとスケジュール費用がかかるという問題でした。考える費用は、到着時刻によるスケジュール費用と途中のボトルネックにおける待ち時間の費用の2種類を考えます。累積図ではWork Starting Time(希望到着時刻)が赤線でわかっている。するとボトルネックの希望流出時刻もわかります。一方でボトルネックは図の傾きだけの容量しかないが、緑の線のarrivalがやってくる。待ち時間とスケジュール費用をどう各人が最適化するかでどんなarrival curve、つまり均衡解がどうなるかを考える訳です。

待ち時間費用は、縦軸が費用で横軸がボトルネック待ち時間で単調増加で、スケジュール費用は早着と遅着で凸関数という条件をつけると、arrival curveがユニークに求まるという議論が出来ています。HurdleやDaganzoがそうした理論を作ってきました。

それを私がシングルコアで複数ボトルネックの問題に拡張したり、ボトルネックが連続して複数ある問題を考えました。

井料君の研究にここで触れたいのですが、彼は複数ボトルネック・個人差あり・many-to-manyの問題を考えました。私は高く評価しています。この研究の問題点は、彼もわかっていると思いますが、FIFO(First In First Out)を考慮していないのです。彼の論文を読むと、FIFOを考慮しなければ、LPで問題が解けて、解けた解からFIFOを満たすものを抽出すれば良いだろうという書き方をしています。そこで昨年卒論生に、FIFOを考慮せずに求められた問題の答えがどういう性質を満たすのかの吟味をしました。もっといえば、待ち行列の物理的性質を満たすのか吟味しました。物理的性質を3つ定義しました。

1.ボトルネック容量が最大限使われていないときは、ボトルネックで待ち行列はできない
2.待ち行列がないときはSchedule Delayもない、要するにボトルネックで遅れなければ希望到着時刻にすんなり着けるからSchedule Delayはないということです。
3.FIFOを仮定した場合にLPで解かれた累積流入曲線の傾きは負にならない
この3つを満たすかどうかを吟味しました。すると、最初は私も井料君同様LPで解くとその一部がFIFOを満たすと考えていたのですが、極めて一般的な条件の中で、LPの答えがほぼ全て性質を満足しちゃうのです。従って、FIFOを考慮せずに解いた答えがほぼ答えといっていい。これはなぜかと考えると、ボトルネックをたった1回通過するところにミソがあって、2回3回だとこうはいえないと思っています。出発時刻選択問題については簡単にしかお話できていませんが、過去25年くらいはこうした経緯で進んでいると理解しています。

あとは動的限界費用の話をしようと思います。経済分野では限界費用というものがあって、最適なロードプライシングの課金額は限界費用とパーソナル費用の差をとればいいという話があります。しかし動的な場合はあまり考えられていないので考えます。

図は静的な供給曲線と需要曲線で赤線が限界費用曲線で均衡点が表されています。システム最適では均衡点を動かさなければならないので、課金をして曲線をシフトさせる理論があります。この理論では供給曲線と需要曲線がなければならないのですが、動的な場合は供給曲線がどうなるかというわけです。

静的な場合は需要をとると、供給曲線は上っていきます。だけど、動的問題の場合はこうなるのかが非常に疑問で、例えばある道路のボトルネックで待ち行列ができると、待ち行列の時間というのは待ち行列ができてからの時間の履歴に依存します。静的な分析では混み始めて何分後の時間という概念が全くないので、動的な場合は同じように供給曲線が書けない。むしろフローはCapacityで制限されているので、曲線が上に伸びるのが時間のヒストリーに従うものですから、時間の概念がないと書けない。パーソナルコストがなければ限界費用もわからないので最適化問題を解くのはできないだろうと。では限界費用とパーソナルコストが動的な場合にどうなるのか。

図は1本の道路をA点・B点に人を立たせて目の前を通過する車の通過時刻を観測させたものです。車が通るとA点の通過時刻・B点の通過時刻を1台目、2台目と書いていくとカーブが書けて、先ほどから言っている累積図になります。限界費用はある需要が通過したときにトータルの総費用がどれだけ変化するかということです。ある1台が通過するとAの到着時刻が1段階上がります。すると水色線部分だけ総費用が大きくなります。増えた面積を全て足すとちょうど1台通過した時刻から待ち行列が終了するまでの時間になります。すなわち限界費用は自分が入った時刻から待ち行列が終了するまでの時刻ということがわかります。こうした理論をロードプライシングにあてはめると、累積図が図のようになるときは、パーソナルコストと渋滞の終了時刻がわかり、動的に課金できるならば図の緑色分だけ課金すれば良くて、総課金額は緑三角部分になります。そうした課金が現実には出来なくてもこうした理論は知っていても良いのではないかと思います。

渋滞がはじまる時にマージナルコストが一番大きいというのは、何か手を打つ時に一番効くのが渋滞がはじまる時であることを意味していて、これが理論的証拠でもあります。あと、ランプコントロールでは首都高3号線が青山通りとの間であったりしますが、首都高で待ち行列がなければある場所からある場所まで30分で行って並行一般道だと60分という仮定とすると、ランプの流入制限をどう掛ければ最適になるかというのが問題です。やはりマージナルコストを考えます。フリーウェイのマージナルコストは、自由旅行時間プラスDuration of Queueになります。どうしてかというと、マージナルコストが自分が入った時刻から渋滞が終わるまでの時刻で、オーダーで言うと渋滞が継続する時間になるわけです。動的なマージナルコストは自由旅行時間の30分に渋滞継続時間を加えることになります。一方でArterial Costの方は渋滞しないという想定なので60分です。最適にするにはこの2つのコストを均衡させるので、渋滞継続時間を30分にするように流入制限を掛けるべきという話になります。ここで面白いのは、通常は利用者が何分遅れるかを気にしますが、本当は渋滞が何分継続するかを気にするべきなんです。

最後に交通関連のデータ融合と言うことで、世の中いろんなデータが転がっていますが、複数のデータをとってきて使おうとするとだいたいデータを使っていいか許可を取るのに大変で、許可が取れてもフォーマットを揃えるのに疲れてデータ融合が嫌になってしまうことが多々あります。従って交通関連のデータをうまく流通させることが重要だと言うことで、International Traffic DB、通称ITDBというプロジェクトをやっております。要はいろんなデータのメタ情報だけを標準化して整理することをしています。トラカンやプローブなどのそれぞれのデータを同じフォーマットで標準化するのは無理があるので、もとのデータはそのままでメタ情報だけ標準化してデータの読み方も付けておく、そういったことをしています。

キーワードとしてはfusionとindividual、なるべくアグリゲートしないデータが欲しいのではないかということです。これで話を終えたいと思います。

羽藤:individualなままのデータが欲しいというのは、プライバシーの問題もあるのである種の集計データとしてまとめた上でどう使うかというのが筋だと思うが、ここでindividualと挙げたのはどういう意味か。

桑原:たしかにindividualイコールprivateなデータかもしれないが、プライベートな部分はマスクできると思う。軌跡の推定で入口出口のトラカンのデータは1分間、5分間の集計のデータでなくても、個々の車両データがわかった方がいい。被災地などで一刻を争うような時に、5分間の集計でなく個々の車両のデータが分かった方がいろいろな手当や交通の管制も早くできるだろう。昔はなぜ集計したかというと記憶のメモリに制約があったからではないか。現在はそうした制約はないのだから、個々のデータの方が良いのではないと思う。

羽藤:データを取る側にこういうデータを取りなさいと言うのは難しい気がしていて、データはサービスの側で決まって集計でもindividualでもいろんなデータが上がってきているのだから、データの仕様を設計するよりは、上がっているデータの仕様をベースに管制システムを組み立てることしかできないのではないか。分析する側が柔軟に対応すべきなのではないか。

桑原:それは両方あるように思う。もしこういうデータがあればここまでわかるということを言うのも必要。そういう意味では我々から先方に働きかけをして、今まではアグリゲートしていたが非集計にしようということも必要だと思う。

羽藤:逆に言うとデータフリーな理論的なモデルの枠組みがあった上で、交通管制システムのフレームがあって、今あるデータではこれくらいの精度だが、こういうデータがあれば理論モデルを使ってこういうことができるという、そちらの側の方が必要ということですか。

桑原:そうだと思う。プローブで官民融合だとかいう時に、今使われているデータは15分間で平均旅行時間にしてしまっている。もっとこんな形でくれればこんなことができると言わないと、民間の方でもインセンティブが湧かない。官も同じ。僕らが今あるデータに対応するのも大事だけれど、逆に我々がデータフリーの状態からいろいろやって、インセンティブをつけるのも重要だと思いますけどね。

福田:前半の軌跡の推定では、交差点の出入りの影響で導かれたプローブの軌跡がずれているのではないかとのことだったと思うが、qvの式を線形にした誤差があるのではないか。

桑原:それはある。誤差の理由はいくつもあると思うが、直感的にはqvの形よりも出入りの影響の方が多いと思う。

福田:プローブ車両の混入率によって違うのか、時空間の精度の関係はどうなっているのか。

桑原:先ほどの例も1本のプローブで20分くらい推定したが、プローブのデータを全く使わないで計算したら全くうまくいかなかった。全くプローブが無いと情報としては不足するが、10分、15分に1本あれば良いという印象。ただ、それも一般性をもって結論づける自信はない。

羽藤:信号のデータはどうなのか。通常我々は信号のデータなどは得にくいが、プローブデータだけで信号が赤のところの空白をシミュレーションから逆推定するようなことを想像したが。

桑原:プローブから信号時間の逆推定も実はやっている。もう一つ言いたいのは実は交差点がもう1つあるが信号データがない。その場所はプローブをみれば止まっているのがわかる。信号時間の秒数がわかるに越したことはないが、プローブの軌跡が信号の秒数をある意味代表している。秒数がなくても軌跡に現れるので、推計できているともいえる。

羽藤:ただ、信号の赤の停止時間は、赤になって何秒経って入ったかに依存するから、確率分布で表現して誤差となっていくということで良いのか。

桑原:そうそう。で、この研究を民間に話をすると、信号秒数を測るのも大変だし、トラカンデータが手に入らないと言われる。だからプローブのデータだけでどこまでできるかということをやっている。信号秒数の赤線がわからなくても、信号交差点の位置はわかる。そして軌跡をみるとある程度は分かる。この車が交差点からナンm離れたところで何秒間停止しているということから、発進のショックウェーブや停車幅を求めると、待ち時間などが推定できる可能性はあります。

羽藤:前半で3年プロットの井料君の図があって、何に役に立つかがわからないが、一般街路で3年プローブをとったデータがあれば、同じ位置座標で何分止まっていたのばらつきが出るので、信号のパラメータは抽出できるはず。するとネットワークデータがないような発展途上国の交通管制システムなどで、プローブの蓄積があれば、シミュレーションのパラメータチューニングの精度が上がるようなことができそうだと思います。

桑原:プローブだけでもだめな気もする。プローブだけだと量的なものはわからないものね。どっかの断面でずっとトラカンでとっているようなものと合わせてとるようなことが必要だろう。

佐々木:ビッグデータはリッチということか。プローブデータが大量にあれば信号時間も推定できるような話があったが。

桑原:ビッグでリッチなのではないか。ビッグデータはいろんな種類という意味合いもあって、いろんな種類のデータが挙がってきていてフュージョンするといろんなことができる。プローブだけでもいけない、と捉えている。

羽藤:現実に首都高・阪高の管制システムを作ろうという時には、センシングや調査のB/Cの話もあって、パルスも短くするのはお金がかかるし、プローブのデータもどんどんたまり続けているようなことがある。これくらいでいいのではないかという話はどこかであると思うが。設計する上では。

桑原:首都高でもボトルネック地点のトラカンデータはものすごく使う。織り込み区間のボトルネック解消などの問題ではどういう方向にどれだけ流れているという話をする。プローブだけだとそれはできない。それを気にしている。

羽藤:500mおきや300mおきに全部設置するのは無理で、設計上どうするか考えなければならないのではないか。

桑原:おっしゃる通り。300mおきに設置するような必要は全くない。

羽藤:カメラの話はなかったが、カメラで全部いいじゃないかみたいな話にはならないのか。

桑原:カメラの画像は全数とれて離れたところでも車のマッチングも出来る。

羽藤:メゾスケールでどう車線変更が行われたかなどの追従の個別のフォローイングモデルのパラメータチューニングもできる?

桑原:画像はそんなに長い区間はとれない。一般的には5,6mの高さから撮るからせいぜい20~30m。だけどトラカンよりはずっと情報量がある。

田名部:阪高で去年カメラをやったが、設置位置が低い問題があったが、ほぼ使えないような精度だった。画像が重なったり、渋滞時は特に酷い。トラジェクトリをエリア内でとるのは厳しい。20年経ってもこんなものというのが現状。

羽藤:出発時刻の話では容量と渋滞の継続時間が一番重要とのことだったが、確率モデルの研究は行動モデルの研究の側からすると今の理論をどうモデルとして制御して持っていくかということだと思うが、そういう研究が少ないのは何か理由があるのか。

桑原:ボトルネックと待ち行列での渋滞を相手にしていて、渋滞現象そのものは確率的な扱いをする必要はないと思う。近飽和のような時は確率的影響がもの凄く大きいが、明らかな渋滞では確率的要素は微々たる問題。フィジカルな現象は確率的扱いをする必要は全くないと思う。確率的扱いをするならば、どう時間をチョイスするかという行動の方だろう。

福田:ボトルネック容量が確率的に変化するようなことはあるが・・・

桑原:そんなことをやる必要は全くないように思う。待ち行列のボトルネックの容量や需要の変化などフィジカルなボトルネックな現象に確率要素を持ち込む必要は全くない。人間がどう行動するかに確率的な取り扱いがいるのだろう。その部分は私はあまり詳しくない。本当は人間を科学しなければいけないけれど、やり始めるとエンドレスだなとも思う。やる気がないわけではないが。

羽藤:プローブデータがあるということは、どこでボトルネックに突入してということがわかって、交差点の通過データのday-to-dayの変化もあるわけだから、そういうメカニズムもマイクロシミュレーションや理論的検証などで入れられるとは思う。ただ、それはおいておいて、まずは状況をどう推定するかということか。

桑原:プローブのデータを集めればいろんな行動は見えるから出発時刻選択・経路選択などのフィードバックはできると思う。

出発時刻の選択の情報で、交通量とかの情報をリアルタイムで提供すれば、情報提供が出発前か後かでも違うが、出発時刻を変えるならどうすればいいのか

桑原:出発時刻を変えさせるなら、出発前。出発時刻選択に影響を与える情報は出発する前だろう。

出発する前の情報を制御してみんな出発時刻を変えたら、また渋滞の時間がシフトするだけではないか。

桑原:そのあたりはあるので、情報提供のさじ加減だろう。

羽藤:MFDの話があったが、原理としてはわかったが、あるゾーン単位でqvを仮定してメゾスケールのネットワークシミュレーションで使えるということですよね。

桑原:あるエリアでの交通制御をしようとすると、ミクロなレベルではOD表をつくるなどは情報が不足するとできない。MFDだと、このカーブを一本かけば、状況がそのカーブ上のどこにいるかわかる。そのカーブ上の現在の点をモニタリングして制御する。

羽藤:あのqvの情報のためには、多くの情報が必要なのか

桑原:どういう条件があれば、ああしたダイヤグラムが書けるかがわからない。その条件がまだ曖昧。

羽藤:それは首都圏だと感知器データがあるから、ゾーンのサイズを変えるとパラメータが安定するというような話か。

桑原:データが多い中でいろいろやってみると、こんなダイヤグラムが書けるというように実験的にはできるが、なぜそうなるかが問題。なぜ安定するかのバックグラウンドがないと、いくつかやってもそれだけなので、整理できないかと思っている。エリアによってqvがきれいに書けないエリアもあると思う。なぜきれいにqvが書けるかというと、日々の交通状態が綺麗に繰り返されているということだろう。

羽藤:全体がこうだから、その間はこう動いているというような話は、ドライバーがそのエリア内の交通状況が一体的なものと認識しているということな気がするが。

桑原:人間の経路選択などの行動と、カーブの関係は沢山あると思う。リサーチとしてはやる価値はあると思う。

羽藤:データオリエンテッドにどういう時にどうなるかというのはあるが、一方で理論的な手法論でも両方やらなきゃいけないということか。

桑原:たぶんこういう理屈でこうなっているのではないかということがなければ、一般性ある結論を引き出すのはむずかしい。仮説を持ってデータを見るべき。

田名部:吉井先生などは阪神高速はどこを制御してもいいと言われるが、バックグラウンドがはっきりしていないから気持ち悪い。実際にはどこを閉めるかによって変わってくる気がするが。

桑原:MFDでやってる以上どこを閉めたらいいという話は出てこなくなる。どこでもいいから中に入る量を一定量増やす減らすの議論だけで、どこを制御をかけるかはそれでいいのかということもある。

羽藤:観測のしやすさや、関数がはっきりしているから状況が予測しやすいということでどういう単位で制御を掛けるかを考えれば、MFDのような考え方で組み立てるのもあると思う。

桑原:総量的にはそう。その次にはその総量を制御するためにどこを制御するかということがあるだろう。

田名部:そうすると高速の場合はこれまでの個別の制御となにが違うのか。

羽藤:高速の場合はMFDはいらないだろう。一般街路と高速を連動させたい場合に、ネットワークデータがあまりにも複雑だと大変だから、MFDで合わせてどう管理するか組み合わせた方がいいのではないか。

桑原:今までの制御だとODの情報が必要。MFDはOD情報は要らないけれど、どこを閉めるかはわからない。総量的にはこれくらい制御するという条件がわかって、ODみたいな面倒くさいことはやらずに閉めるみたいなことができれば。

田名部:数値計算でどこを閉めても同じだったという結論の研究がある。そういうことはいえるのか。

桑原:首都高の都心環状線の話をよくするが、ランプによって閉めても影響の無いランプとそうでないランプがある。ランプの取捨選択はあると思う。その時に従来型のOD交通量を持ち出さなくてもいいという考え方があれば一番いいのでは。

羽藤:首都高・阪高はODベースでいいと思いますけどね。ETCのデータがこれだけあるので、むしろ経路選択でODの変動で解析して制御の単位をはっきりさせた方が制限ロジックとしては頑健な気がする。それを導くためにデータ解析はちゃんとやって、高速道路の管制はそれでいい。一般街路まで含むとアンコントローラブルになるので、MFDのような話に計算上効率的なのでなるのだろう。

桑原:首都高・阪高でランプ流入制限するときに何が一番問題かというと一般街路。だからそういう意味ではMFDは首都高をひっくるめた全部に対して使うべき。ハイブリッドでやるようなものがいるのかもしれないけど、詳細のODを使わなくていい方向はいるのかな。

福田:MFDはコードンエリアのロードプライシングと親和性がありそう。どうエリアに動的に課金を設定するかなど。場所をとくに定めずにできるだろう。

桑原:ラインでやるようなMFDは出ていない。LFD?(笑)

羽藤:VICSはどうでもいいのか?

桑原:VICSなどは今はデータを貰って付加価値付けずに流している。危機感を持っているとは思うがどういう方向に進めばいいのか。

羽藤:VICSがそうなっているということは、首都高・阪高のシステムがそうならない可能性はない。そのあたりをどうデザインするかの話はあるし、自動車会社は電気自動車ではプローブのデータが標準になっていてプローブのデータは阪高・首都高が持つようなデータよりリッチになる。画像情報が入ると車頭時間の間隔もわかってくる可能性がある。するとVICSで起こっている問題がパブリックセクターでも起こる可能性があるので、それを踏まえた設計やモデリングが必要だろう。

桑原:トラカンの話でもばらまいて設置する時代ではないので、設計の話はあると思うが、おそらくプローブの情報はNEXCOなども使いたがっているし、使おうとしている研究を進めている。特に東北地方などはもともとの感知器が20~30kmに1ヶ所と少ないので、プローブ情報が1台あるだけで相当情報量が増える。民間の情報も入れて、センサーの配置なども考える時代になっているのでしょうね。

三谷:プローブのトラジェクトリと信号があっていないように思えるがどういうことか。

桑原:精度がそれくらいということ。プローブの位置情報がいい加減。これくらいのデータでもまあまあ使える気はする。

羽藤:プローブ位置情報は信号位置情報と合わせて補正してやるみたいなことをすれ ばよかった。では、ありがとうございました

●兵藤:物流データ,どこにあるか?どう使うか?

■本題に入る前に…
東名よりも新東名のほうが燃費がいいと言われるので実際に5/9と6/25に走って検証してみた。すると実際に東名が下り、新東名が上りのときですら新東名のほうが燃費が良かった(その逆はさらに差が大きい)。なぜだろうか。標高のデータを見ると東名の方が変化が大きく、上り勾配の割合が多いからかと思ったが、累積標高をとってみると新東名の方が高く、勾配は関係ないらしいので原因を今後検討していく。

■本題「物流のデータ、どこにあるか?どう使うか?」

物流はわかりにくいと言うが本当にそうか?例えばトラックを見れば会社名、品名等ラベルがついているように写真からでも人間の行動に比べ、得られる情報が多い。さらに取引データは電子化されていて電池1本から、どこへ運ばれるか、何月何日、どこから運ばれるか、とかがトランザクションのIDにひも付けされて管理されている。物流のデータは本当の意味でのビッグデータが企業に蓄積されているともいえる。

実際に配送先についてもGISを使えば町丁目単位まで紐付け出来、これを利用して新しい配送センターの配置計画などを立てているし、さらに商品をみれば産地、管理温度、品種などさまざまな情報が手に入る。

【拠点集約】
一般的なイメージとは違い「運ぶ」というのは1割か2割で、企業にとってロジスティクスというのは「在庫管理」が8割で、すべての情報を一括集中させて管理し、コストを下げることも考えると拠点というのは少ないほうがいい。しかしその集約された拠点がやられてしまうと被害が大きい。実際に東芝に関して言えば1996年では21箇所の拠点があったがここ10数年でわずか4つにまで集約された。

【身近な物流データ】
1)貿易統計
金額や量も判明していて、手に入れやすいため最初に扱う物流データとしてはわかりやすい。物流研究というのは、1)企業研究、2)ものの研究、というパターンが王道で何を研究したらいいのかわからない場合はものを決めて研究する、ということをする。例えば花に関してみると、貿易統計でもばら、カーネーション、らん、菊などの輸入金額がわかり、ばらを見ると2006年からケニアのやエチオピアの輸入も急増したが、ドバイフラワーセンターの設立でサプライチェーンが変化したことが考えられる。他の花も10年前と比べてどんどん輸入量が増えている。

2)中央卸売市場データ
大田市場が毎月野菜の取引数量と取引価格を公開していて、どこのキャベツが東京卸売市場を通過したかを見ると産地による季節の違いが明らか。ものによっては需要と供給のバランスが見て取ることができる。ネットで調べられるのは過去10年ぐらいだが、国会図書館へ行くと統計資料が残っているため1965年までデータがのこっている。キャベツの市場を見るとかつては東京のキャベツもあったが最近にかけて徐々に減ってきていること、季節による産地の違い、年による変動などさまざまなことがわかる。高速道路のネットワークやコールドチェーンの確率(昭和40年台)により東北の野菜が最近になって増えたとかんがえられる。

【国土交通省管轄の物流データ】
交通に近い視点からの分析
1)物流センサス
5年毎に行われ、2010年が最新で9回目である。1レコードというのは1ODのことを指し、統計法が改良されて個票を入手することができるようになった。33条によると国立大学は大丈夫でも私立大学ははじくという問題がある。もののODを問いただすことを目的とし、3日間のものの動きを書いてもらうなどして集める。このデータを使えば事業所ごとにODの貨物量を集計すると事業所単位での分析が可能になる。交通でも道路交通センサスのデータを世界単位で集計して車の保有と利用を分析できたりするのと同じようなものである。

2)都市圏物資流動調査
東京都市圏は2004年が第4回(10年に1度)、首都圏と阪神、中京、仙台の4箇所で行われている。第4回から視点がかわり、物流の8割を占める在庫管理を分析するため施設の機能、つまり施設で何をしているのか、なぜそこに立地しているのかを調査するようになった。物流センサスでは搬出だけだったが、この調査では搬入も調査しているのが特徴である。この調査は、各都県が物流マスタープランを策定する端緒になるなど、PTに比べてアウトプットが良く使われた。ただ、少子高齢化、都心回帰、拠点海外移転を次回では調査することを考えても、Urban Freight、物流を研究できるひとが少ないのが現状である。また、GISのデータが整理されてきたので、物流の事業所の分布集中が把握できるようになった。事業所開業年を調べると、高速道路インターチェンジ付近にバラバラっと増えはじめ、圏央道沿道への立地が進んでいることがわかる。

【立地選択モデル】
従来型のロジットモデルを用い、選択肢は都市圏に1kmメッシュをかけた15,230肢選択とし、インターチェンジまでのアクセス距離、人口密度などを変数として入れている。立地ポテンシャルの分析を行うと、その高さと物流企業の進出が進んでいるところが一致していることがわかる。

【特殊車両の電子申請データ/道路情報便覧】
例えば40フィートの海上コンテナなどは道路を通るための申請が必要で、昔は各地方整備局に紙で申請していたが2004年から電子化された。これはGISデータでノードをクリックして申請することが可能で、それが自動的にストックされるため年間100万件以上の経路情報が得られている。このデータを道路情報便覧データと組み合わせて分析してみたところ、もちろん申請した経路をちゃんと通ったかどうかという問題はあるが交差点に着目すると、コンテナ車に対するボトルネック箇所(コンテナ車にとってはリンクではなくボトルネックとなるのはノード)を分析することができる。詳しくは今年の三月のIBS萩野さんの博士論文に掲載している。

・道路情報便覧データ+配分データの活用
マクロ(ネットワーク配分)とミクロ(交差点の改良事業)の連携を分析するため、いくつかのソフトを連携させることになるがVISUMとVISSIMで沖縄で分析してみた。今後アプリケーションとしてはロンドンオリンピック中の交通制御でマクロとミクロが連携して進められたり、信号現示が考えられたりしている。トロントでも緊急事態に対応した信号制御の分析などがマクロミクロの連携として行われている。

佐々木:物流のモデルは原理がクリアーである一方でドバイセンターができると構造がすごく代わってしまうなど、わかるところとわからないところがあるがそれをどう使い分けているのか。

兵藤:個々のものの出入りというのは大きく変わるのは当然だが、都市圏レベルで着目すればそんなに大きな変化というのはなくて、人が高齢化で居なくなる範囲の傾向など、想像の範囲内で起こり得ることがメインで分析されている。基礎的な問題から掘り起こして次の問題に繋げられれば、と思う。

羽藤:普通に考えれば需要側と供給側のモデルがあって、ネットワークまたは拠点に投資したほうがいいのかという問題が考えられるが、そういうモデルのフレームワークではやられているのか?

兵藤:実は搬入というのはモデルには取り込まれていなくて、片手落ちの状況である。やろうと思えばできるがデータが細かくなる(搬入/搬出先はたくさんある)ので、今回は省略した。長岡の佐野先生のところではサプライチェーンを含んだようなモデルが分析されていた。

羽藤:単独企業のチェーンだったらできるとは思うが、リージョナルなモデルはやられていないのか。それこそデータを逆推定する形でデータに合う形でモデルを作れないか、とも思う。港湾側と道路側といったような差異や、リージョナルの外の情報というのはあまり分析されていないのか。物流の問題では域外(世界)が重要だと思うがそれはどう扱われているのか。

兵藤:域外の問題はたしかに重要だと思うが実際にはあまりやられていないのが現状である。

桑原:拠点が集約されたが、拠点というノードにおける効率性をあげたほうがリンクのコストに対して大きいということなのか?

兵藤:人件費、土地代、施設管理費を考えるとトラックの輸送費に比べたら全然大きい。

桑原:ある程度拠点を作ったほうが輸送費を節約できていいみたいな感覚だったがそれが意外。

兵藤:平均在庫日数などが拠点を減らすと極端に減るためコスト削減につながる。

佐々木:企業が需要予測などがわかっていないということではないのか?

兵藤:日本の場合、欠品を必ず起こさないという美学があるため在庫管理を徹底させて拠点を集約させているという傾向がある。

羽藤:災害時のことは研究されているのか。

兵藤:シナリオの予測がないとなかなか難しい。アンケートはやられているが定量的にはあまりやりようがないが見直しはされている。

桑原:宮城県と岩手県では非常に対照的で、大きな拠点があって段階的なものがいいのか、直接運びこむのがいいのか、という問題がある。環境上の制約がなかった場合を考えるとどちらのほうが最適だったのか。

兵藤:災害地における拠点というと、プロによる仕分けの技術が必要なので、拠点における作業の効率性が担保できるかどうかも大きなファクターである。

羽藤:時系列モデルはないのか。ロケーションチョイスモデルについて。

兵藤:たしかに言われたように何かが周りにできたからそこに立地したのか、経済状況による変化、とかいうことはあるがなかなかそれを取り込むのは難しい。

佐々木:企業の戦略はわからないがアウトプットはわかる、といったようにマクロなところから、逆にミクロをとらえることもできそうだが。

兵藤:現象を理解するという観点から言えばミクロを見ていたほうが面白い。

羽藤:企業の行動原理そのものはフォーミュレートできるのでは。

佐藤:道路整備をした後に地域の特産品が輸送できる、ということがよくあるが、実際にデータでもでているのか、そういう分析はされているのか。また、物流のデータはどこまで展望が進むのか。というのも物流業者は1年に一回自動車業者から運ぶ距離を短くしなさいとか言われるらしいなど、物流業者のコストが厳しくなっているのも現状にある。

兵藤:特産品については、どこまで情報提供してもらえるかに尽きる。走っているトラックをみればどのようなものかはわかるがトラックの中身まではわからないのでなかなか難しい。RFIDを個々の品物につける時代がくれば追跡できるかもしれない。データの既得の問題は一定のルール以内でしか使えないが、昔に比べればデータ量も豊富になってきているという印象はうけている。

福田:整備効果みたいなことを考えると時間の定時性みたいなのは物流のがセンシティブだと思うが、時刻の情報の取り扱いはどうなっているのか。

兵藤:時刻データというのは今のところ存在しない。あえてやろうとするのであればETCの通過時刻などから分析する方法もある。1日あたりいくら下がるか、という陳腐化コストというのもある。ものによって陳腐化の速さが違って、そのリスクを想定して飛行機か船か、という分析をしていることもある。

●福田:移動の定時性(旅行時間信頼性)の経済評価に向けて

この研究の背景としては、移動の質のさらなる工場への利用者のニーズや、充実した我が国の旅行時間データベースが挙げられ、旅行時間信頼性については「評価」「運用」の問題があるが、今回は「評価」について話そうと思う。”旅行時間信頼性”とは同じ区間の移動であっても時間帯や日によって旅行時間が大きく変動する場合に低い値をとるものであり、旅行時間変動が生じる要因としては需要の変化や事故天候変化によるものがあるがこういう問題を解消する便益を考える。

信頼性の向上がドライバーに与える影響としては遅刻のリスクや早くつきすぎる時間の無駄を少なくすることだが、この便益は事故減少などに比べても無視できないくらいの便益の大きさとなっているため、研究する価値があるとかんがえられる。さらに言えば定時性の価値というのは時間にどれくらい厳格かという利用者の価値に依存するので日本ではそのインパクトがより大きくなるかと考えている。

■便益評価に向けた課題
1.貨幣価値原単位の設定
旅行者はいくら支払ってもいいと考えるのか→時間信頼性価値
2.旅行時間信頼性の将来予測

■旅行時間変動の価値付けに関する研究
【平均ー分散モデル】
ドライバーのコストの一部に標準偏差を加えて、平均時間と同様にみなすモデルだが、表皮量そのものが効用関数の引数となっていないので、ミクロ経済学的基礎が確立していない点が問題である

【スケジューリングモデル】
ドライバーの間接効用が希望到着時刻からどれくらい乖離しているか。早く着いてしまう分と遅刻する分に対してその乖離を定式化し、不効用を分析。Vickreyは1973年にもスケジューリングコストの異なった定式化を行っている。

【統合アプローチ】
スケジューリングモデルと平均ー分散モデルはある特定の状況では同一になることに着目し、旅行時間変動のもとでの出発時刻選択問題で、早発不効用、旅行時間の不効用、遅着不効用を考慮している。最大化された期待効用はまさに平均ー分散モデルの形に帰着するのが特徴である。モデルは利用者が選ぶ出発時刻平均旅行時間に加えて、旅行時間の標準偏差に掛けることの基準化旅行時間のタイル値(セーフティイマジン)となっており、これを用いると最終的にはコストが計算され、このモデルからはシンプルな形が導かれる。

ここまでは旅行時間の分布が出発時間によって変わらないことを仮定していたが、実際には時間帯によって旅行時間は変化していて、これについても拡張が可能。

・東名高速道路のETCデータを用いたケーススタディ
1分の平均旅行時間の価値と1分の標準偏差の価値がだいたい一緒ぐらいで、旅行時間に起因するコストのシェアは無視できない大きさであることがわかった。

■旅行時間変動のリンク間加法性
旅行時間変動をどういう風に足しあわせていくのかという問題がある。現実には旅行時間というのはリンク間相関があり、プラスの相関であったら便益が過大に評価されてしまう可能性がある。

【安定分布】
正規分布を内包する、より一般的な分布であり、Heavy tailや非対称性を表現する事が可能。

1)安定特性
安定特性により、旅行時間分布を経路全体の諸侯時間分布に集計化することが可能になり、集計化したものは旅行時間の経験特性に合うとされる。

2)一般化中心極限定理
「確率変数の正規化和に対しても安定分布になる」という特性をもち、大きなリンクで構成される道路ネットワークに利用可能だと考えられる。これによってネットワーク全体での旅行時間変動が把握できる可能性が示唆される。

【ケース・スタディ(コペンハーゲンの都市内道路)】
それぞれの細切れ区間で信頼性指標を出したものを足しあわせたものと、一気通貫での信頼性指標を比べると、完全には一致していないという結果になった。どちらかというと畳込みの方が平均時間に近いものになったが、両者の違いはリンク間の相関だと考えられた。しかし、相関係数を出してみても強い相関は見られないので、今後乖離の原因を追求していく。

■今後の課題
課題としては、価値付け(モデリングの拡張、SP調査方法の仕方)、予測(将来予測モデルの意味付け、一般道路ネットワークにおける旅行時間分布の予測)、その他(公共交通における旅行時間分析)などがあげられる。

佐々木:SP調査の仕方はたしかに重要だと思った。

福田:オランダは時間信頼性の価値というのを一番真剣に取り組んでおり、3パターンぐらい用意して被験者にどれくらい理解されるかなどの実験を経て、調査方法を設計している。

兵藤:渋滞がはじまるときというのは標準偏差が小さい、渋滞が解消されたときに標準偏差が大きいという両者の違いを考慮した施策はあるのか。標準偏差だけを小さくする施策というのは何なのか。

福田:それは難しい。速度の中でばらつきを減らすとか。

兵藤:そもそも渋滞解消後の方がばらつきが大きいというのはどのように考えるのか。

福田:渋滞解消後の方が希望速度のばらつきが大きい。渋滞が解消して速く走りたい人と、渋滞の感覚で遅く走るひとのばらつきか。

佐々木:分散はどのようにだしているのか。

福田:元データから1分ごとに出して時系列でつないでいる。流入時刻の条件付き平均と条件付き分散を求めた。

桑原:リンクの旅行時間を足しあわせについてだが、自分がやった場合はリンクの分散を単に足しあわせてやったが、足しあわせた時のほうが分散が小さかった。福田先生の発表では逆だったが、それはなぜなのだろうか。

福田:なぜなのかはわからないが3万件くらいのデータを使ってやっているので統計的にも有意ではある。

佐々木:誤差分布というのがリンク間というよりも個人間の誤差に影響しているのでは。畳込みの中でキャンセルが起きているのでは。

福田:一番シンプルなのは共分散で考えたが、実際には分散だけでなく、分布と分布を足しあわせてみたかったので安定分布というものをつかった。都市内道路と都市間道路でも違って、都市間道路ではボトルネックを抜けた後速くなるというように負の相関が見られ、場所による違いも大きい。

●中西:観測方程式を組み込んだ歩行者行動モデル

●人物追跡の研究
人物の挙動観測に対する関心の高まり。今でも大事なところは手動でやっている.→自動化できないか?

●一般状態空間モデル
・近年時系列分析に応用されている.特に確率的表現の適合性が高い手法.
・緯度情報・距離情報について人間の目でみればわかるが,機械にどうわからせるか.→観測モデル
・システムモデル→歩行者挙動モデル

【観測モデルのモデル化】
・色情報からの観測モデル
・距離情報からの観測モデル

【システムモデルのモデル化】
・離散選択モデル(Robin(2009))逐次追跡では目的地はわからないので省略

【計算方法】パーティクルフィルタ
パーティクル群の期待値が推定された状態ベクトル

●適用結果
・方向転換・遮蔽・近接に対応
画像処理的観点ではかなりの適応度

●応用例―動線データ自動取得・改札選択―
「出発地―通過改札」の取得.提案手法の動線取得手法としての有用性.

●一般状態空間モデルの利点
・システムモデル・観測モデル・確率分布が扱える
・時系列の過程を分布から分布への確率過程として操作(永遠に確率的に扱う)
・モデルの評価・改良に利用できる(初期値・最適化)

●検討項目
(1)システムモデルとシミュレーションモデルの違いをどう埋めるか?離散選択で最大値になる選択肢とは?
・システムモデルでは分布の形が知りたいが,それが反映されるモデルがなかなかない.最大確率だけ選ばせると,分布が縮退する.ノイズ項の大きさへの依存が大きいモデルになりやすい事が問題点だと考える.

(2)目的地が設定できない時にどうするか?
・逐次修正を粉うとき,目的地は未知でなければおかしいが,モデル推定上困難を伴う.

(3)尤度に基づくモデル評価
・追跡結果からパラメータ最適化は可能
・サンプルデータの再現性ではなく観測があるという前提でのモデル評価となる

(4)時空間に依存するパラメータ設定
・モデルの評価が追跡と同時に行えるなら,追跡しながらモデルを辺呼応することが出来る.

羽藤:一般状態空間モデルで楕円体を仮定,追従のように歩行者が周辺との距離をどう認識してるかを考えると,頭の位置があって前の人の頭の距離等,いくつかの座標をとってやることで精度があがらないのか.子供と大人の頭の高さとか.

中西:楕円体は中心座標と大きさを与えている.大きさが一律でいいかという問題はある.観測も3次元,色も3次元,形状の評価も楕円に対して,どれだけ人間の形に近いかでやっている.足もととか前の頭はどちらかというとシステム側で組み込みたい.

羽藤:組み込むためには座標が必要.識別しといたほうがよいのでは.また,逐次にこだわっていて,逐次処理するニーズはあるが,目的地を与えることで精度はよくなるので,後で使うならそういう方法論を検討しても良いのでは.逐次だというのが明快にある?

中西:逐次でもかなり計算が重い.リアルタイム処理も視野に入れられる枠組みというだけで,事後情報を含めた平滑化をしようとするとおそらく計算がまわらない.逐次にこだわるばかりではない.

羽藤:システム方程式側からすると,plan-actionモデルとかあって,最終的に途中の状態で変化するとかあるので,そういう問題を考えると行動モデル的には面白い.計算量があるという話で気になったのは,歩行者モデルをやったときに,抑々時間設定をどうするのかをどう決めるべきなのか.人が2秒単位で認識して原則加速とか,5m単位とか.認知のスケールがあると思うが,その取り方によって,もう少しラフにしても再現できるみたいな話もあるかもしれない.その辺りで計算時間も考えていけば,違うモデルが考えられるのでは.あと,測定誤差と認知誤差の話があったが,誤差があるという前提で推定を考えるのがパラダイムで,それが課題か.

中西:シミュレーション側からすると,plam-actionにしても1秒ごとに改札選択していいかとかある.観測側の要請からすると観測できればできるだけ精度がよくなると信じていて,観測を捨ててまでやれる可能性があるのかということは考えたい.現実的に平滑化は非線形でやろうとすると,計算以前に,平滑化を全区間でやるのはかなり難しい.全区間分のデータを状態ベクトルで与えてパーティクルフィルタで与えて計算する.

福田:システムモデルのところは,扇形の図があったが,どこ選ぶかはCNLで,選択確率が一番高いセルを選ぶ?100%で?

中西:そう.あと選択肢の選択結果の種類に正規分布を与えている.

福田:重みづけで乱数を発生させるとか,縮退という話があったから.選択確率が高いのが選ばれやすいが,低くても選ばれる可能性は0じゃない.もしそれができれば,縮退の問題は解決できそうな印象を持った.また,CNLでも閉じた式で出すのではなくて,ランダム項のところを使う方法もある.多変量のGEV分布で発生させるから複雑だが,系統的にやれるから良い.

佐々木:実際観測誤差みたいなものだせるがどんなもの?計算的に出るならモデルの評価はそこから修正できないのか.

中西:系統的に出ていない.観測の誤差なのかシステムの誤差なのかを別に出すのが全体で見たときにどっちかは,区別はモデル上ではできない.

羽藤:行動モデル的にはシミュレーションデータでパラメータ推定してどうかみたいなことやるが,真値がわかっているという仮定でデータを生成して,観測誤差・システム誤差を議論するみたいなベンチマーク的な評価があってもいいのでは.実データで全部やるのもありだが,そういう方法もある.システム方程式で歩行者モデルというと,複数人・隣の人がこうだからとか,モデルの課題があったりするが,そういうところは考えてない?

中西:検討はしている.浅野さんのモデル等も考えられる.が,最終的に速度が一意に決まってしまうモデルを使うのはあまり相性がよくないというのが一つの理由.確率分布としてのシステムモデルを最後に生成しなければならないので使っていない.

羽藤:一意に決まると言っても,セルそれぞれで選択確率が生成される.

中西:今の分布があるとして,パーティクルがあるとして,選択の問題をかけたときに,与えられる変数が同じようなモデルだと,モデルの分布がかわらないまま進んでしまう.現実は重みづけしたいので,多様な選択をするようなものを使いたい.どういう挙動するかはちゃんと検証しないといけない.

佐々木:観測で個人の加速度とかは.離散選択モデルではなくても,

中西:等速・等加速でやるとうまくいかない.3,4フレームで取ってもなかなか厳しい.

佐藤(三菱総研):多摩プラザを対象にしている理由は.駅では双方向で移動するが,改札を整備するみたいな考え方で,駅の構内から観察してコントロールしてあげるほうがよいのかなと思う.角度の制約とかあったのか.

中西:撮影自体は選べなかった.これだけ上から取れるところも少なかったので.駅の中から真上からという条件がくればもっといい追跡が出来る.駅である理由は,駅を対象にしたいわけではなくて,駅構内の改札どうすべきかを知る上でマイクロシミュレーションを行う際に元データが必要で,群衆がどう動くかを認識したいというニーズがあると考えている.

聴講者:tのスパンは?

中西:0.1秒ちょっと.

聴講者:だと結構進まない.移動しないのに対して,離散選択モデルをちゃんと組んで入れることの効果は?

中西:インターバルはおそらく短すぎると離散選択モデルでなくてよい.現状として離散選択モデルを組んで,等速移動以外を選ぶのは10%程度出てくるので,そこを扱うことでできる部分はできてくる.なんとなく扇形にばらまく等は結局モデルに近づく.

伊藤:歩行者モデルを見たときに,取れる範囲は改札で限られているし,障害物を回避するみたいなのは入っていない?

中西:今のところ入っていない.もちろんそれらを使うことが改善に繋がる.検討中.

●羽藤:おわりに

中西さんの発表についてはこうした研究自体がこれまでなされていない。交通機関選択モデルなどはあるが、歩行者はシステムモデル自体が分かっていない。Robinの歩行者行動モデルの論文がTransportation Researchのダウンロード数1位というように、どういう行動原理かわかっておらず、システム方程式側からの話や知見がない。先日日経新聞に渋谷駅のネットワークの話があったが、そうしたことでも領域での歩行者行動の分析手法が役立つし、画像解析がモデルにフィードバックする部分も多く、有用性も高いモデルであると思う。ロジスティックス、信頼性、出発時刻選択についても、桑原先生・福田先生の2人ともVickreyの論文を引用してマージナルコストや不確実性を考慮していて、部分的なデータから確率現象を扱う行動モデルの推定などがあった。推定と施策の効果については、所要時間の変動に対しての働きかけが渋滞発生時と解消時のどっちがいいかははっきりしないが、費用便益的には非常に意味がある話である。ロジスティックスも研究者が薄いので、やると面白い成果が出るだろう。皆さんの議論に感謝します。