概要

第1部 ビッグデータ:基礎と理論

Patrick Wolfe (University College London)

Title:

Understanding the Behaviour of Large Networks

Abstract:

In this talk – which will be accessible to a general audience – we show how the asymptotic behavior of random networks gives rise to universal statistical summaries. These summaries are related to concepts that are well understood in the other contexts outside of Big Data – such as stationarity and ergodicity – but whose extension to networks requires recent developments from the theory of graph limits and the corresponding analog of de Finetti’s theorem. We introduce a new tool based on these summaries, which we call a network histogram, obtained by fitting a statistical model called a blockmodel to a large network. Blocks of edges play the role of histogram bins, and so-called network community sizes that of histogram bandwidths or bin sizes. For more details, see recent work in the Proceedings of the National Academy of Sciences (doi:10.1073/pnas.1400374111, with Sofia Olhede) and the Annals of Statistics (doi:10.1214/13-AOS1173, with David Choi).

CV:

Patrick J. Wolfe is Professor of Statistics and Honorary Professor of Computer Science at University College London, where he is a member of the Department’s Senior Management Team and a Royal Society and EPSRC Established Career Research Fellow in the Mathematical Sciences.

From 2001-2004 he held a Fellowship and College Lectureship in Engineering and Computer Science at Cambridge University, where he completed his PhD in 2003 following a National Science Foundation Graduate Fellowship. Prior to joining UCL he was Assistant (2004-2008) and Associate (2008-2011) Professor at Harvard University, where he received the Presidential Early Career Award for Scientists and Engineers from the White House.

Professor Wolfe currently serves as Executive Director of the UCL Big Data Institute. Externally to UCL, he serves on the editorial board of the Proceedings of the Royal Society A (Mathematical, Physical & Engineering Sciences), the Research Section Committee of the Royal Statistical Society, the Program Committee of the 2015 Joint Statistical Meetings, and as an organizer of the 2016 Newton Institute program on Theoretical Foundations for Statistical Network Analysis.

福水 健次 (統計数理研究所)

Title:

データ科学に対する機械学習的アプローチ

Abstract:

統計数理研究所の統計的機械学習研究センターの活動に関して紹介する.

Network-of-Excellenceとしての研究コミュニティ形成活動と,センターで推進する研究プロジェクトに関して紹介し,特に,非線形データ解析としてのカーネル法に関する研究と,スパースモデリングに関する研究成果について述べる.

CV:

1989年京都大学理学部卒業.1996年京都大学博士(理学)取得.

1997年までリコー・研究開発本部研究員.その後,理化学研究所・脳科学総合研究センター・研究員を経て,2000年より統計数理研究所・助教授,2012年同教授.機械学習,数理統計の研究に従事.

持橋 大地 (統計数理研究所)

Title:

ノンパラメトリックベイズ法による音響・自然言語処理

Abstract:

大量の音声データや言語データが蓄積されるにつれ, それらの理解と処理のために, 教師なし学習の高度化が重要な課題となっている。本講演では, この例として三つの話題, すなわち音響データからの教師なしイベント検出(音響処理), 歌声スタイルの統計モデル(音楽処理), 文字列からの単語と品詞の同時学習(自然言語処理)の各話題について紹介する。これらはいずれも今後重要度が高いタスクであり, ノンパラメトリックベイズ法, 特にIBPおよびガウス過程によってアプローチを行っている。

CV:

1998年東京大学教養学部基礎科学科第二卒業.

2005年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了. 博士(理学).

ATR音声言語コミュニケーション研究所, NTTコミュニケーション科学基礎研究所各研究員を経て, 2011年より統計数理研究所准教授. 統計的自然言語処理およびベイズ統計に関心を持つ.

河原林 健一 (国立情報学研究所)

Title:

巨大グラフ:解析とアルゴリズム

Abstract:

インターネットのWeb 構造や,Facebook,Twitter などのソーシャルネットワークに代表される巨大なネットワークは,各々10 億人に近いユーザーが利用し,現代社会に欠かせない存在となっている.このような背景のもと,JST ERATO 巨大グラフプロジェクトでは,巨大なネットワークを膨大な点と辺の接続構造,すなわち「巨大グラフ」として表現し,理論計算機科学や離散数学などにおける最先端の数学的理論を駆使してそれを解析する,高速アルゴリズムの開発を目指している.
本講演では,本プロジェクトの研究成果の一部を紹介する.特に巨大グラフに対して,理論研究をもとにできた効率的アルゴリズムをいくつか紹介する.

CV:

1998年慶応大学理工学部卒、2001年慶応大学理工学研究科後記博士課程終了(理学博士)。2003年東北大学情報科学研究科助手、 2006年国立情報学研究所助教授、2009年より同教授。現在ビッグデータ数理国際センター長、およびJSTERATO河原林 巨大グラフ研究総括。離散数学、理論計算機科学からAI,データベース、データマイニングの研究に従事。2008年度IBM科学賞、2012年度日本学術 振興会賞、日本学士院学術奨励賞。

現在は、グラフに関するものであれば、数学的な抽象的な問題から、実用的なネットワークの問題までの幅広い研究を行っている。アルゴリズム の研究も行っているが、絶対にコンピューター上で動かせないアルゴリズムから、数十億点のグラフ上で動作するアルゴリズムまで幅広い研究も 行っている。

林 浩平 (国立情報学研究所)

Title:

因子化情報量基準に基づくスパースモデル選択

Abstract:

混合モデルや隠れマルコフモデルといった隠れ変数モデルは,観測データを低次元な隠れ変数により説明する.この隠れ変数次元を決定する指標として因子化情報量基準(Factorized Information Criterion, FIC)が近年提案された.FICはベイズ推論で用いられる周辺尤度に漸近的に一致し,最大化アルゴリズムの計算コストも低い.本発表では隠れ特徴モデルとベイズ主成分分析に対して導出したFICとその最大化アルゴリズムを説明する.

CV:

2009年奈良先端科学技術大学院大学 情報科学研究科 修士課程修了.

2012年同 博士課程修了.博士(工学).

2012年から2013年まで日本学術振興会特別研究員(PD).

2013年より国立情報学研究所 特任助教.

特に関係データやベイズ確率モデルに特化した機械学習の研究に従事.

 

 第2部 ビッグデータ:応用と活用

平藤 雅之
(独立行政法人農業・食品産業技術総合研究機構 /
 筑波大学)

Title:

Agricultural Big Data and Applications

Abstract:

農業は種々の複雑な現象に支配されるため、農業における意思決定は非常に難しい。環境条件、作物の状態、農作業、生産費などに基づく意思決定支援システム群がユーザーを支援する必要がある。フィールドセンサネットワーク、UAV、農業機械に組み込まれたECU、モバイル/ウェアラブル・ガジェットなどのIoT/M2M機器はこういったデータを含む農業ビッグデータを自動的に構築することができる。さらに、パーソナル/デジタルファブリケーションと呼ばれる最近のものづくり方法によって、植物形質計測のための多様なセンシング・ニーズに対応した新規デバイス開発を迅速に行うことができる。形質やゲノム等のオミクス・データも含む農業ビッグデータは,栽培方法や育種法を改善できる。ビッグデータの構築のため、我々はオープンなプラットフォーム(CLOP: CLoud Open Platform)を開発しているところである。CLOPは、オープンソースソフトウェア(Hadoop及び Mahout)による機械学習を用いたリコメンデーションサービスや予測サービスなどの機能も提供し、高度な農業クラウドサービスを低コストに構築できる。

CV:

1983年東京大学農学系研究科(現在、農学生命科学研究科)・修士課程修了。1995年農学博士(東京大学)。(独)農業・食品産業技術総合研究機構中央農業総合研究センター・フィールドモニタリング研究チーム・チーム長を経て、2011年より、北海道農業総合研究センター 芽室研究拠点畑作研究領域長。筑波大学大学院生命環境科学研究科先端農業技術科学専攻フィールドインフォマティクス研究分野教授(併任)。センサネットワーク(フィールドサーバ)、農業・生物・進化等のモデリング、ニューラルネットワーク、生物環境の計測制御、宇宙農業などを研究。最近は、スマート農業のためのデータ統合プラットフォーム(CLOP)及びビッグデータ・アプリケーションの開発を行っている。

中島 直樹 (九州大学病院)

Title:

ビッグデータ解析により包括的e-ヘルス管理システムの費用対効果が改善された

Abstract:

生活習慣病の有病率は発展途上国を含めて世界中で増加している。目的は、e-ヘルス管理システムを用いて発展途上国で予防医療サービスの実証実験を行うことである。また、階層化ルールや介入による短期効果の評価を行うことである。

我々は、センサー機器のセットをアタッシュケースに入れ、モバイルネットワークによる通信システムとデータ管理アプリを含めたe-ヘルス管理システムを開発した。

バングラデシュの5つの村と5つの工場でeヘルス管理で健診を行った。各被験者の健康状態は国際診断標準に基づいて自動的に緑(健康)、黄(注意)、橙(発症)、赤(緊急)に分類された。橙と赤のグループにのみ遠隔医療を提供し、遠隔処方を必要に応じて行った。

初期健診は16,741人が受診した。2,361人が1年後健診を受診し、収縮血圧が平均121 mmHgから116 mmHg に改善した(P<.001)。発展途上国における継続性を確保するために、我々は、最も高コストの血糖検査をできるだけ避けるために、問診、被験者プロファイル、健診結果に基づいて機械学習(ランダムフォレスト法)を用いて予測できることを提案した。

この研究結果は、発展途上国における費用対効果の高いヘルスケアシステムとしてeヘルス管理システム、つまり健診と遠隔医療の組み合わせが有利であることを示している。

CV:

中島直樹氏(医学博士)は、九州大学病院メディカル・インフォメーションセンターのセンター長・教授(2014年より)であり、また国立情報学研究所の客員教授である。
彼は25年間、糖尿病専門医であり、同時に13年間は医療情報学の研究に従事してきた。
現在は日本糖尿病学会の評議員であり、また、日本医療情報学会の副理事長である。
慢性疾患に対してセンサーネットワーク技術などを用いた1次から3次予防を目指した疾病管理理論研究に注力してきた。
彼はまた、2003年に始まった、九州大学病院アジア遠隔医療開発センター(TEMDEC)の設立メンバーであり、現在は副センター長(2012年から)である。TEMDECはアジア太平洋地域で最も活発な国際遠隔医療活動である。その活動の中で、彼は2012年からバングラデシュンのグラミングループと共同で費用対効果の高いセンサー健診・遠隔医療プログラムを行っている。

田中 譲 (北海道大学)

Title:

統計プローブ・カー・データを利用した冬道管理のための探索的可視化分析

Abstract:

ソーシャルCPS(サイバー・フィジカル・システム)とはCPSの考えを都市スケールの社会基盤システムの監視・制御に拡張適用するもので、データベースに格納されたサイバーデータと対象物理世界のセンサー・ネットワークから送られてくるフィジカル・データの両方を用いて、交通、エネルギー、上水道などの都市基盤システムの分析と最適制御を目指すシステムである。この講演では札幌における冬道管理に焦点をあてる。札幌は人口が百万人以上の都市の中で、年間降雪量が世界一である。都市全体の道路状況を面的に監視するには、個人情報保護に抵触することなくプローブ・カー・データを活用することが必須である。この講演では、先ず、都市スケールの範囲にわたって、道路リンクごとに予め統計処理されたプローブ・カー・データを用いるだけでも、交通流の変化をダイバージェンスや流量ベクトル場の形で可視化することができることを示す。これらの可視化は、交通のホットスポットや主たる交通流、さらにはルート選択の動的変化に関して充分な情報を提供することができることを示す。講演では、特に札幌での冬道管理に関連して、これらのデータのより複雑で高度な分析に関しても述べる。探索的可視化分析のためのフレームワークとしてよく知られている多重連携ビュー・フレームワークを拡張して、この環境に各種分析ツールとその結果の可視化ビューを統合することにより、多重連携ビュー/分析フレームワークを提案する。新しく導入されたビューも他のビューと共に連携し、利用者はこれらの分析結果ビューの上で各クラスターやマイニングで得られた各パターンを自在に直接選択することができ、この選択に応じて、基盤データベース・ビューが制約され、その結果がすべての多重連携ビューに反映される。このようなシステム環境を用いた探索的可視化分析により、例えば、ピンポイント徐排雪が有効な道路リンクを検出することが可能になる。

CV:

Yuzuru Tanaka has been a full professor of computer architecture at the Department of Electrical Engineering (1990-2003), then of knowledge media architecture at the Department of Computer Science, Graduate School of Information Science and Technology (2004- ), Hokkaido University, and the founding director of Meme Media Laboratory (1995-2013), Hokkaido University. He was also a full professor of Digital Library, Graduate School of Informatics, Kyoto University (1998-2000) in parallel, and has been an adjunct professor of National Institute of Informatics (2004- ). His research areas covered multiprocessor architectures, database schema-design theory, database machine architectures, full text search of document image files, and automatic cut detection in movies and full video search. His current research areas cover meme media architectures, knowledge federation frameworks, proximity-based federation of smart objects, and their application to digital libraries, e-Science, clinical trials, and social cyber-physical systems for the optimization or improvement of social system services such as snow plowing and removing in Sapporo City. He worked as a visiting research fellow at IBM T.J. Watson Research Center (1985-1986), fellows of Information Processing Society of Japan and Japanese Society of Software Science, an affiliated scientist of FORTH in Crete (2010- ), a series editor of Springer’s LNAI (lecture Notes in Artificial Intelligence), and the program officer of JST’S eight year CREST Program on Big Data Application Technologies (2013- ). He has been involved in EU’s FP6 Integrated Project ACGT (Advancing Clinico-Genomic Trials on Cancer), FP7 Best Practice Network Project ASSETS (Advanced Search Services and Enhanced Technological Solutions for the European Digital Library), and FP7 Large Integration Project p-medicine (personalized medicine).

Yi-ke Guo
(Imperial College London, Data Science Institute)

Title:

Big Data for Better Science : An introduction to Data Science Institute of Imperial College

Abstract:

We live in a world where billions of gigabytes of data are generated every day around us. Data is a major asset in the search for solutions across Science, Engineering, Business and Medicine, and finding news methods to store, mine and visualise this data is becoming increasing important.

In April 2014, Imperial College London launched the Data Science Institute (DSI) as its 5th cross Faculty Institute tackling grand challenges. Its mission is to provide a focal point for Imperial College’s capabilities in multidisciplinary data-driven research by coordinating advanced data research for College scientist and partners, alongside educating the next generation of scientists. The DSI conducts research on core data science to develop advanced theory, technology, and systems that will contribute to state-of-the-art in data science and support world-class research at Imperial and beyond.

Located in London, the DSI is very much a global Institute, developing international partnerships and collaborations to empower engagement between Institutions and Industry in pursuit of data driven innovation. The Institute aims to generate significant intellectual property and, through strategic partnerships, to translate this into social and economic impacts. In this talk, we will present the missions and the vision of the DSI. We will also overview the one year progress of the DSI, the experience of building the institute and the future of its development.

CV:

Director, Data Science Institute (DSI), Imperial College London (ICL), UK.

He is the founding Director of the Data Science Institute at Imperial College, as well as leading the Discovery Science Group in the department. Professor Guo also holds the position of CTO of the tranSMART Foundation, a global open source community using and developing data sharing and analytics technology for translational medicine.

 

 第3部 ビッグデータ:データ公開とプライバシー

佐藤 一郎 (国立情報学研究所)

Title:

ビッグデータとパーソナルデータに関わる法改正動向

Abstract:

ビッグデータ技術を駆使したパーソナルデータの利活用は、新しい社会やビジネスを作り出すが、同時にプライバシーに関する問題を引き起こす。

しかし、データ量の増加に対して制度的な対応が十分ではない。そこで日本政府は、個人情報保護法の改正を検討しており、ここでは法改正の動向について概説する。

CV:

1991年慶應義塾大学理工学部電気工学科卒業. 1996年同大学理工学研究科計算機科学専攻後期博士課程修了,博士(工学).2001 年国立 情報学研究所助教授. 2006年より同研究所教授.総合研究大学院大学 複合科学研究科情報学専攻教授(併任). 政府IT総合戦略本部/内閣官房「パーソナルデータに関する検討会」委員&同検討会技術検討ワーキングループ主査

Sir Nigel Shadbolt (Open Data Institute )

Title:

Privacy in an Age of Data

Abstract:

We live in an age of superabundant information. The Internet and World Wide Web have been the agents of this revolution. A deluge of information and data has led to a range of scientific discoveries and engineering innovations. Data published on the Web has enabled the mobilisation of hundreds of thousands of humans to solve problems beyond any individual or single organisation. Open data published on the Web is improving the efficiency of our public services and giving rise to open innovation. Data science is emerging as an area of competitive advantage for individuals, companies, universities, public and private sector organisations and nation states. But data collected at scale by public and private agencies also gives rise to concerns about its use and abuse. How are we to retain our concept of privacy in this age of data? This talk will examine this challenge.

CV:

Sir Nigel Shadbolt is Professor of Artificial Intelligence at the University of Southampton. He is also the Chairman and Co-Founder of the Open Data Institute (ODI). Since 2009, Sir Nigel has acted as an Information Adviser to the UK Government, helping transform public access to Government information, including the widely acclaimed data.gov.uk site. With over 400 publications he researches and publishes on computer science, artificial intelligence, open data and web science. During his career, he has also worked in philosophy, psychology and linguistics.

Today, Nigel draws together this multidisciplinary expertise to focus on understanding how the web is evolving and changing society. He is passionate about how humans and computers can solve problems together at web scale. He is currently Principal Investigator on a £6.14M EPSRC funded Programme Grant researching the theory of social machines – Web scale problem solving systems comprising large numbers of humans and computers. Throughout his career he has been involved in translating research into commercial products and services. In 2006 he was one of three founding Directors of Garlik Ltd, which in 2008 was awarded Technology Pioneer status by the Davos World Economic Forum and won the prestigious UK national BT Flagship Award. Garlik was acquired by Experian Ltd in 2011.

In 2013 he was awarded a Knighthood for services to science and engineering. In August 2015 he will move to Oxford to become Principal of Jesus College and will join the Department of Computer Science as a Professorial Research Fellow in Computer Science.

Copyright © National Institute of Informatics Kawarabayashi Large Graph Project.