ERATO 河原林巨大グラフプロジェクト
河原林 健一
国立情報学研究所教授
インターネットのWeb構造や、Facebook、Twitterなどのソーシャルネットワークに代表される巨大なネットワークは、各々109(10億人)に近いユーザーが利用し、現代社会に欠かせない存在となっています。これらのネットワークは年々急速に膨張し、近い将来には1010を超えるサイズになると予想されています。
ネットワークの膨張に伴う情報量の増大はハードウェアの進歩を上回る速さで進んでおり、いわゆる「ビッグデータ」の中でも特に巨大な、1010以上のサイズのネットワークに対しては、現行のアルゴリズムでは実用的な速度で情報を解析することが不可能であり、高速アルゴリズムの開発が急務となっています。
このような背景のもと、本プロジェクトでは、巨大なネットワークを膨大な点と辺の接続構造、すなわち1010以上の頂点を持つ「巨大グラフ」として表現し、理論計算機科学や離散数学などにおける最先端の数学的理論を駆使してそれを解析する、高速アルゴリズムの開発を目指します。
ネットワークの膨張に伴う情報量の増大はハードウェアの進歩を上回る速さで進んでおり、いわゆる「ビッグデータ」の中でも特に巨大な、1010以上のサイズのネットワークに対しては、現行のアルゴリズムでは実用的な速度で情報を解析することが不可能であり、高速アルゴリズムの開発が急務となっています。
このような背景のもと、本プロジェクトでは、巨大なネットワークを膨大な点と辺の接続構造、すなわち1010以上の頂点を持つ「巨大グラフ」として表現し、理論計算機科学や離散数学などにおける最先端の数学的理論を駆使してそれを解析する、高速アルゴリズムの開発を目指します。
革新知能統合研究センター(AIPセンター)
杉山 将
理化学研究所センター長 / 東京大学教授
革新知能統合研究センターは、文部科学省が推進する「人工知能/ビッグデータ/IoT/サイバーセキュリテ統合プロジェクト」事業の研究開発拠点として2016年4月に設置されました。
当センターでは、革新的な人工知能技術を開発し、科学研究の進歩や実世界応用の発展に貢献することを目指します。また、人工知能技術の普及に伴って生じる倫理的・法的・社会的問題に関する研究や、人材育成も行います。
当センターでは、革新的な人工知能技術を開発し、科学研究の進歩や実世界応用の発展に貢献することを目指します。また、人工知能技術の普及に伴って生じる倫理的・法的・社会的問題に関する研究や、人材育成も行います。
ACT-I研究領域「情報と未来」
後藤 真孝
ACT-I研究総括 / 産業技術総合研究所首席研究員
ACT-I研究領域「情報と未来」では、情報学における研究開発によって未来を切り拓く気概を持つ若手研究者を支援するとともに、新しい価値の創造につながる研究開発を推進します。情報学に関わる幅広い専門分野において、新しい発想に基づいた挑戦的な研究、今後の学術・産業・社会・文化を変えていくような多種多様な研究を、若手研究者が個を確立しながらいかに推進するかが重要だと考えています。
研究推進においては、未来開拓型の研究開発、価値創造型の研究開発を募り、本研究領域で若手研究者同士がお互いに切磋琢磨し相互触発する場を設けることで、未来社会に貢献する先端研究を推進する研究人材の育成や、将来の連携につながる研究者同士の人的ネットワーク構築を促していきます。それによって、ひときわ輝き存在感のある研究者がより一層増え、ひいてはより良い未来社会が切り拓かれることに貢献します。
研究推進においては、未来開拓型の研究開発、価値創造型の研究開発を募り、本研究領域で若手研究者同士がお互いに切磋琢磨し相互触発する場を設けることで、未来社会に貢献する先端研究を推進する研究人材の育成や、将来の連携につながる研究者同士の人的ネットワーク構築を促していきます。それによって、ひときわ輝き存在感のある研究者がより一層増え、ひいてはより良い未来社会が切り拓かれることに貢献します。
基盤(S) 離散構造処理系プロジェクト
湊 真一
北海道大学教授
計算機は、産業プロセスの最適化や解析、マーケティング、バイオインフォマティクスなど、様々な情報処理に活用されています。近年の爆発的に増大している大規模データを処理するためには、計算機ハードウェアの高速化だけでなく、膨大な離散構造データ(計算機が行う論理的な処理を表現したデータ)を数学的に簡約化し効率よく計算する「アルゴリズム技術」の重要性が高まっています。本プロジェクトでは、基本的な離散構造の1つである論理関数を処理するBDD(Binary Decision Diagram:二分決定グラフ)と、さらにその進化形であるZDD (Zero-Suppressed BDD; ゼロサプレス型BDD)の2つの技法を基盤とした離散構造処理系の研究に取り組んでいます。 ZDDは、研究代表者の湊が考案・命名したBDDの進化形で、疎な組合せの集合を効率よく処理する技法として世界的にも注目されています。これらの技法をさらに発展させ、多様な離散構造を統合的に演算処理する技法を体系化し、システム検証や最適化、データマイニング、知識発見などを含む分野横断的かつ大規模な実問題を高速に処理するための技術基盤の構築を進めています。
新学術領域研究 多面的アプローチの統合による計算限界の解明
渡辺 治
東京工業大学教授
本領域の目的は、P≠NP予想をはじめとする重要な未解決問題の解決へ向けて計算複雑さの理論に革新的な進展をもたらし、計算の根本原理の解明に新たな潮流を生み出すような強力な計算限界解析理論の構築である。
我が国の計算の理論と離散数理の高い研究力を基礎に、様々な視点を持つ研究者の連携により、 これまでに究極に深められてきた各種解析技法を多面的に分析し、その仕組み、特徴、および技法間の関連を見出し、それらを統合する強力な解析理論を作る。
領域は、最先端下界、計算上界、境界領域、という3つの立場からの計算限界解析法の研究を行う9つの計画研究を核として総括班で全体の企画をおこない、10件程度の公募研究を含めて構成する。
我が国の計算の理論と離散数理の高い研究力を基礎に、様々な視点を持つ研究者の連携により、 これまでに究極に深められてきた各種解析技法を多面的に分析し、その仕組み、特徴、および技法間の関連を見出し、それらを統合する強力な解析理論を作る。
領域は、最先端下界、計算上界、境界領域、という3つの立場からの計算限界解析法の研究を行う9つの計画研究を核として総括班で全体の企画をおこない、10件程度の公募研究を含めて構成する。
CREST 自己情報コントロール機構を持つプライバシ保護データ収集・解析基盤の構築と
個別化医療・ゲノム疫学への展開
個別化医療・ゲノム疫学への展開
佐久間 淳
筑波大学教授
ビッグデータの継続的な収集蓄積とその解析は、様々な社会上の問題解決の強力なツールとなりつつあります。一方個人情報を含むビッグデータは、プライバシの保護の問題のために、現状では十分な利活用されているとは言えません。近年、複数の情報源から得たデータによるデータ解析において、お互いにデータを秘密にしたままデータ解析を可能にする秘密計算の技術が発展し、プライバシ保護とデータ解析の両立が可能になりつつあります。このプロジェクトでは個人情報が常に暗号化されたまま復号せずにデータ解析することでプライバシを保護するプライバシ保護データ収集・解析基盤の開発を目的としています。
本プロジェクトでは、自己情報コントロールを保証した暗号系によるプライバシ保護データの収集と解析のための計算基盤を構築します。自己情報コントロールの保証とは、「データを外部に見せない」ことのみをもってプライバシの問題を解決するのではなく、「個人毎に」「後からいつでも」「誰のデータを解析できるのか」「誰がデータを解析できるのか」「いつからいつまでデータを解析できるのか」「データはどんな経路で流通するのか」といった要件がコントロール可能であることを加えて保証することで、プライバシの問題を解決するアプローチです。
また本プロジェクトでは、「究極の個人情報」と呼ばれる個人ゲノムを提案基盤の中核的な応用領域と定め、基盤技術構築と個別化医療・ゲノム疫学における実証応用を同時に推進します。
本プロジェクトでは、自己情報コントロールを保証した暗号系によるプライバシ保護データの収集と解析のための計算基盤を構築します。自己情報コントロールの保証とは、「データを外部に見せない」ことのみをもってプライバシの問題を解決するのではなく、「個人毎に」「後からいつでも」「誰のデータを解析できるのか」「誰がデータを解析できるのか」「いつからいつまでデータを解析できるのか」「データはどんな経路で流通するのか」といった要件がコントロール可能であることを加えて保証することで、プライバシの問題を解決するアプローチです。
また本プロジェクトでは、「究極の個人情報」と呼ばれる個人ゲノムを提案基盤の中核的な応用領域と定め、基盤技術構築と個別化医療・ゲノム疫学における実証応用を同時に推進します。
CREST データ粒子化による高速高精度な次世代マイニング技術の創出
宇野 毅明
国立情報学研究所教授
データから適切な抽象度を持った特徴・構造を網羅的に取り出し、複雑で巨大なビッグデータをシンプルで明確で小さいデータに変換する手法を開発します。機械学習などのデータ解析が簡素かつ精度が高くなり、可視化や解析の結果も明解になります。顧客分析、経済動向把握、社会ネットワーク解析、センサデータ解析などで、表層には現れない深い意味が見えるようになり、データ利活用の活性化と新たなサービスやビジネスの創出を通じ、日本のIT産業の基盤強化につながります。
CREST ビッグデータ時代に向けた革新的アルゴリズム基盤
加藤 直樹
関西学院大学教授
今世紀に入り注目を浴びているビッグデータは、そのデータ量の膨大さ故に、その基礎となるアルゴリズム理論に根本的な変革が迫られている。例えば、これまでは多項式時間アルゴリズムならば「速い」アルゴリズムであると考えられてきたが、ペタスケールやそれ以上のビッグデータに対してO(n^2)時間アルゴリズムを直接適用するだけでは、計算資源や実行時間などの点で大きな困難に直面する。少なくとも線形時間、場合によっては劣線形時間や定数時間アルゴリズムが求められている。
本研究では、その変革を支える劣線形時間パラダイムを提唱し、ビッグデータ用のアルゴリズムとデータ構造、およびモデリング技法を開発し、ビッグデータ時代に向けた革新的アルゴリズム基盤を構築する。
本研究では、その変革を支える劣線形時間パラダイムを提唱し、ビッグデータ用のアルゴリズムとデータ構造、およびモデリング技法を開発し、ビッグデータ時代に向けた革新的アルゴリズム基盤を構築する。
CREST 離散構造統計学の創出と癌科学への展開
津田 宏治
東京大学教授
ビッグデータから、ある現象に関する原因究明を行う際、統計的手法が多く用いられますが、その結果の信頼性に関しては、なんの評価値も与えられない場合が多く、誤った結果により損害が発生することもあります。本研究では、離散数学と、従来の統計科学を融合した離散構造統計学を創出し、原因究明精度の飛躍的改善を達成します。国内三カ所の有力がん研究機関と連携し、開発した新統計手法を利用して、新生児5000人に一人の高確率で発症する小児がんである神経芽腫の原因究明に挑戦します。
CREST 大規模複雑システムの最適モデリング手法の構築
岩田 覚
東京大学教授
モデル化は、数理的手法による現実の問題解決や現象の解明に不可欠な第一歩ですが、生命現象や社会現象の様に支配法則の不明確な対象を扱う際には、同じ現象に対しても、多数のモデルが考えられます。本研究では、生命現象におけるネットワークや電力システム、交通システムを題材に、離散数学・最適化分野における最新の知見を駆使して、多数のモデルの中から最も適切なものを効率的に選択する体系的な手法の創出を目指します。
CREST ソフトマター記述言語の創造に向けた位相的データ解析理論の構築
平岡 裕章
東北大学 原子分子材料科学高等研究機構教授
本研究チーム(CREST TDA)ではトポロジー、表現論、確率論、統計学を融合させた位相的データ解析(Topological Data Analysis: TDA)手法を開発し、データ科学における新たな基盤技術を構築します。数学的手法の中心はパーシステントホモロジーと呼ばれる概念であり、データの「形」を定量的に記述する4つの理論を確立します。
1. パーシステント逆問題理論
2. 一般化パーシステント加群理論
3. ランダムトポロジー理論
4. 位相的統計理論また、本手法をソフトマターの構造解析へ応用し、高機能ガラス材料設計や、疾患関連タンパク質のフォールディング構造解析といった挑戦的基礎研究を実施します。
1. パーシステント逆問題理論
2. 一般化パーシステント加群理論
3. ランダムトポロジー理論
4. 位相的統計理論また、本手法をソフトマターの構造解析へ応用し、高機能ガラス材料設計や、疾患関連タンパク質のフォールディング構造解析といった挑戦的基礎研究を実施します。