GNU/Linux >> Linux の 問題 >  >> Linux

ビッグデータの挑戦と約束

インターネットが成長するにつれて、データの量とデータが評価される範囲も増加します。特に政府や上場企業は、中小企業でさえGoogleAnalyticsや同様のサービスから収集した洞察を高く評価しています。データの備蓄と精査は、より優れた製品を提供するための非常に強力な方法と見なされています。人々がウェブサイトやアプリケーションをどのように使用しているかを理解する。従業員のパフォーマンスを追跡します。最も効果的なマーケティング言語を決定します。など。

International Data Corporationが発表した予測によると、ビッグデータサービスの売上高が420億ドルに達する2018年まで、ビッグデータ市場は26%のCAGRを維持します。

市場の価値は、企業が膨大なデータの収集、理解、統合、つまり情報をより良い結果に変えることができるサービスを専門とする企業に多額の投資をしていることを示しています。

>

ビッグデータの焦点はどれくらいですか?さて、宇宙船の人々はゲームに参加しています。

NASAのChrisMattmanは、この分野での雇用主の調査について、「NASA​​はおそらく合計で数百ペタバイトを管理しており、エクサバイトに近づいています」と述べています。

フォーブス 寄稿者のJoshuaSteimleは、エクサバイトは非常に膨大な量の情報であり、10億ギガバイトであると述べています。

数の海に溢れていますか?

現在利用可能なテクノロジーを使用すると、データは企業にとって非常に急速に蓄積されるため、データを維持することと、データを理解することの両方の点で、従来のデータベースでは過負荷になります。企業は、指先でのデータの膨大さに圧倒されるためにロケットを製造する必要はありません、と Steimleは主張します。 。

Taylor NelsonSofresのアジア太平洋地域の責任者であるChrisRiquierは、別の分野での影響を見たと述べています。「市場調査は調査と投票に基づいています。」現在では、代わりに、ソーシャルメディア、検索エンジン、およびその他の多数のソースから流入する情報を使用してリアルタイムで実行されます。データサイエンスと分析の継続的な改善に技術者が注力しているおかげで、Riquierは、「市場に対応し、意思決定を行う能力が大幅に変化した」と信じています。

ビッグデータ内で意味のあるパターンを見つけることは、多くの企業にとって謎でした。ただし、データエンジニアは非常に強力なシステムを構築しているため、2014年の Harvard Magazine によると、データをできるだけ早く収集して処理する傾向はほとんど避けられません。 報告。この記事は、革新的な「ビッグアルゴリズム」の公式により、企業がデータストアを接続および統合し、数値をより堅牢でユーザーフレンドリーなイメージングに変換することで利益を得ることができることを示唆しています。

物理学と天文学の分野からの長年の研究技術を利用して、技術者と文化の専門家は、相互利益のためにトピックに耐えるために彼らの異なる視点をもたらします。

ビッグデータの作成者であるViktorMayer-SchonbergerとKennethCukierは、データ分析は個人の選択だけでなく、企業が全体像を決定する方法を完全に変えることであると述べています。結局のところ、予測分析はその名に恥じないものであり、論理に基づいた、すべてを見通すクリスタルボールを使用する人。

ビッグデータの成功には次のものが含まれます:

Google – Googleは、特定の検索用語はおそらく人々がインフルエンザのような症状を示し始めていることを示していると仮定しました。彼らの推測を​​リアルタイム検索に適用することで、同社はインフルエンザがCDCよりも速く広がっている場所を特定することができました。

カナダの銀行 –国境を越えて、CanadianBankは「Apacheによって作成されたオープンソースソフトウェアフレームワークであるHadoopを使用しています」Steimle 「マネーロンダリングと詐欺の特定を可能にするプログラムを展開すること」と説明しています。

データと日常生活

NASAとGoogleはビッグデータに焦点を当てた注目を集めるインスタンスですが、その可能性ははるかに広く、オンラインで注目を集めたいビジネスにまで及びます。それは検索エンジン最適化とソーシャルメディア最適化を強化する燃料です。起業家は、ソーシャルソフトウェアからの分析データと組み合わせて、Googleのウェブマスターツールを使用して、より成功したオンラインプレゼンスを開発できます。

会社のHallAnalysisを通じてクライアントのインターネットプレゼンスの向上を支援しているJoeHallは、検索エンジンの結果を向上させるためにデータを分析する基本的な方法は2つあるとコメントしています。

  1. 特定のビジネスに直接関連する膨大なデータ内のパターンを調査します。

Hallのクライアントの1つには、1500万を超えるバックリンクがありました。つまり、多くのWebページがトラフィックを彼のクライアントに送信していました。

そのレベルでは、被リンク分析のルールが変更されます」とホール氏はコメントしています。データ内のパターンの決定は非常に複雑になります。

  1. ビジネスの現在の位置と市場全体のダイナミクスについてより高度な理解を得る。

分析ソフトウェアを介してさまざまな変数間の関係を調べることで、企業は、目立つようにランク付けする方法と、検索エンジンに表示されたときにリストに応答する人を増やす方法をよりよく理解できます。関連する2つの研究分野は、相関分析です。 およびユーザー行動分析 、ホールは言います。

ビッグデータエンジンの刷新

データサイエンティストやそのサービスを利用する企業にとって基本的なテクノロジーの1つは、プレミアムクラウドコンピューティングです。結局のところ、ターンキーVPSホスティングソリューションは、リソースの仮想化された分散を通じて、速度、信頼性、および効率を最適化することに基づいています。

インディアナ大学のコンピューター科学者GeoffreyFoxは、クラウドはスーパーコンピューターよりも高速であることが多いと述べています。


Linux
  1. [[$ a ==Z*]]と[$a==Z *]の違いは?

  2. NssとPamの違いは?

  3. クラウドがビッグデータの分析をより効率的にする方法

  1. CCPAとGDPRの概要

  2. システムディスクとデータディスクに関するFAQ

  3. ハニーポット チュートリアル – ハニーポットのモードと動作

  1. Ls *、Ls**およびLs***の結果?

  2. tcpdump でファイルに書き込み、標準出力に適切なデータを出力するにはどうすればよいですか?

  3. スラッシュと rsync コマンド