http://www.nhk.or.jp/otona/
“ビッグデータ”って何?
- Eテレ 4月10日(木)午後7時25分~7時54分
- 【再放送】4月15日(火)午前 0時25分~0時54分(月曜深夜)
ビッグデータ [1][2](英: big data)とは、市販されているデータベース管理ツールや従来のデータ処理アプリケーションで処理することが困難なほど巨大で複雑な データ集合の集積物を表す用語である。その技術的な課題には収集、取捨選択、保管[3]、検索、共有、転送、解析[4]、可視化が含まれる。大規模データ集合の傾向をつかむことは、関連データの1集合の分析から得られる付加的情報を、別の同じデータ量を持つ小規模データ集合と比較することにより行われ、「ビジネスの傾向の発見、研究の品質決定、疾病予防、 法的引用のリンク 、犯罪防止、リアルタイムの道路交通状況判断」との相関の発見が可能になる[5][6][7]。
2012年現在[update]妥当な時間内に処理することが可能なデータ集合のサイズの制限は、エクサバイトのオーダーのデータである[8]。科学者が大規模なデータ集合による制限に遭遇することは、しばしば発生し、その分野にはゲノミクス、気象学[9]、コネクトミクス、複雑な物理シミュレーション[10]、生物調査および環境調査が含まれる[11]。同様の制限は インターネット検索、金融、ビジネスインフォマティクスにも影響を与える。 データ集合が増加するのは、情報収集モバイル装置、空間センサー技術(リモートセンシング)、ソフトウェアログ、カメラ、マイクロフォン、無線ID読取機、ワイヤレス・センサー・ネットワークの普及も1つの原因である[12][13]。全世界での1人当たりの情報容量は1980年代以降40か月ごとに倍増し[14]、2012年現在[update]1日あたり毎日250京(2.5×1018)バイトのデータが作成された[15]。大企業にとっての課題は、組織全体にまたがるビッグデータの主導権を誰が握るかということである[16]。
ビッグデータは、大部分のリレーショナルデータベース管理システム、デスクトップ統計可視化パッケージでは処理が困難であり、その代わり、「数十台、数百台、ときには数千台ものサーバ上で動く大規模並列化ソフトウェア」が必要になる[17]。何を「ビッグデータ」と考えるかは、データ集合を管理する組織の能力と、扱うデータの領域において従来分析に用いられてきたアプリケーションの能力に依存する。数百ギガバイトのデータに初めて直面してデータ管理の選択肢について再検討を始めた組織もある。また数十、数百テラバイトのデータになって初めて真剣に検討が必要になった組織もある[18]。
http://ja.wikipedia.org/wiki/%E3%83%93%E3%83%83%E3%82%B0%E3%83%87%E3%83%BC%E3%82%BF
"いい"かげんな働き方
2013年8月22日 放送
http://www.nhk.or.jp/otona/p2013/130822.html
0 件のコメント:
コメントを投稿