エッジコンピューティング・プラットフォーム

最適化された高速なユーザエクスペリエンスの提供

Play Video

超低遅延・高帯域・高パフォーマンス

エッジコンピューティング・プラットフォーム(以下、ECP)は、コンテナベースのアプリケーションを手軽に展開し、拡張することで、お客様の増大するビジネス需要に応えます。高性能なコンピュータ、ストレージ、ネットワークのリソースをユーザのできるだけ近くに配置することで、データ転送コストを削減し、遅延を減らし、ローカリティのパフォーマンス向上を実現します。

ECPは、Kubernetes(K8s)とDocker上に構築されたコンテナオーケストレーションシステムであり、お客様はコンテナベースのアプリケーションを一度書けば、どこにでも展開することができます。

リソース

サービス特徴

大規模グローバル展開、1500PoP 以上

コンテナベースのアプリケーションを迅速に拡張するのに充分な規模を提供します。

高帯域幅、50+Tbps

集約された帯域幅によりピークトラフィック時でも高パフォーマンスと可用性を確保します。

超低遅延、50ミリ秒未満

エッジとエンドポイント間の高速なアプリケーション処理と通信を提供します。

超低遅延を保証する分散型PoPのグローバルカバレッジ

TCPプロトコルに対応

自動デプロイメント、セルフヒーリング、オートスケーリング、アプリケーションモニタリング&レポーティング

充実のテクニカルサポート

エッジコンピューティング・プラットフォーム

ECPは、コンテナインスタンス用の高性能なコンピュータ、ストレージ、ネットワークのリソースと、エッジでのKubernetes(K8s)コンテナ管理の両方を提供するIaaS(Infrastructure As a Service)です。

高性能コンピュータ

CPU
メモリー

ネットワーク

パブリックなIPv4およびIPv6のネットワークインターフェース
静的IPアドレス
ロードバランサ

ストレージ

高性能で永続的なローカルSSDストレージ

サービス機能

アプリケーションの自動展開

開発者がPodを指定する際に、オプションで各コンテナが必要とするリソースを指定できます。Kubernetesはスケジューラーを実行しており、リクエストだけでなく、事前に定義されたスケジュールポリシーやプリファレンスに基づいて、どのノードにPodを配置するかを自動的に決定します。手動でのアプリケーション計画は不要です。

セルフ・ヒーリング

Kubernetesのスケジューラーは、失敗したコンテナを再起動し、PoPがダウンしたときにはコンテナを交換して再スケジュールします。また、ヘルスチェックに反応しないコンテナを削除することもあります。

自動更新

デプロイメント・コントローラーにより、開発者はアプリケーションのロールアウトやロールバックを簡単に行えます。

水平ポッド自動スケーリング(HPA)

CPUやメモリなどのリソースの使用状況に応じて、アプリケーションを自動的にスケールアップ/ダウンできます。

エッジコンピューティング(ECP)とは?

エッジコンピューティングとは、コンピューティングパワー、メモリー、ストレージをエンドユーザにできるだけ近づけることを目的としたネットワーク哲学です。エッジとは、ネットワークの端のことで、ネットワークのサーバが最も高速にコンピューティング機能をお客様に提供できる場所を指します。

エッジコンピューティングは、データセンターのような集中した場所にあるサーバに依存するのではなく、物理的にユーザの近くに処理場を移動させます。 演算は、ユーザのコンピュータ、IoTデバイス、エッジサーバなど、ローカルで行われます。

エッジコンピューティングでは、クライアントと中央のクラウドやサーバとの間で発生する長距離通信を最小限に抑えることができます。 その結果、レイテンシ(遅延)が少なくなり、パフォーマンスが向上します。

Edge Computing

エッジコンピューティングはどのように機能するか

エッジコンピューティングは、ローカルデバイスからのデータを、集中型クラウドやエッジ・クラウドのエコシステムに送る前に、それらが属するネットワークのエッジで分析できるようにすることで機能します。世界中に分散したデータセンター、サーバ、ルーター、ネットワークスイッチのネットワークは、ローカルにデータを処理・保存し、それぞれが他の場所にデータを複製することができます。これらの個々の場所は、PoP(配信拠点)と呼ばれます。エッジPoPは、遠く離れた場所にあるクラウドサーバとは異なり、物理的にデバイスの近くにあります。

従来、企業は複数のアプリケーションを物理的なサーバで運用していました。すべてのアプリケーションにリソースを割り当てて、すべてのアプリケーションが同じようにパフォーマンスを発揮できるようにする簡単な方法はありませんでした。その後、仮想マシン(VM)が登場し、アプリケーションを分離することで、同じハードウェアインフラ上のサーバのリソースをより有効に活用できるようになりました。

コンテナは、アプリケーション間でオペレーティング・システム(OS)を共有できることを除けば、VMと似ています。これによりコンテナは、クラウドやOSのディストリビューションを超えてポータブルになります。開発者は、アプリケーションを効率的にバンドルして、ダウンタイムなしにアジャイルに実行することができます。

実際に、オープンソースのプラットフォームであるKubernetesは、開発者がコンテナ・アプリケーションの管理の多くを自動化するのに役立ちます。例えば、1つのコンテナが高いトラフィックを受けている場合に、ネットワークトラフィックを分散したり、ロールアウトやロールバックを自動化したり、失敗したコンテナを再起動したり、コンテナの健全性をチェックしたりすることができます。

開発者は、ポッドを構築することで、エッジ上にアプリケーションを展開することができます。ポッドとは、ストレージやネットワークリソースを共有する1つまたは複数のコンテナをまとめた小さなコンピュータの単位です。Kubernetesは、すべてのエッジPoPに導入することができ、開発者はエッジ上でこれらのポッドを構築することができます。

世界中のユーザが集中管理されたクラウドからグラフィックを多用したコンテンツを自分のデバイスにアクセスしているクラウドゲーム会社を考えてみてください。ゲームはユーザのキー操作やマウス操作に反応しなければならず、データはクラウドとの間をミリ秒以下で行き来しなければなりません。このような継続的なインタラクティブ性を実現するには、企業のサーバが保存、取得、処理するための膨大なコンピューティングパワーが必要です。さらに、最新のクラウドゲーミングには、安定した超低遅延を約束する5Gネットワークが必要です。

サーバまでの距離が長ければ長いほど、データの移動量が増え、遅延やジッターが発生する可能性が高くなります。これにより、遅延が発生し、ユーザのゲーム体験が悪くなる可能性があります。

コンピュータをエッジとユーザの近くに移動させることで、データの移動距離を最小限に抑え、プレイヤーは遅延のない体験をすることができます。これにより、ゲーム機やパソコンなどの実際のユーザデバイスが不要になります。データワークロードをエッジで実行することで、グラフィックを多用したビデオのレンダリングが可能になり、全体的に優れたゲーム体験を実現します。 また、企業は中央のインフラを運営するコストを削減することができます。

プライバシー&セキュリティ、エッジコンピューティングが重要な理由

エッジコンピューティングには、セキュリティ上の懸念もあります。エッジPoPはユーザに近いため、エッジコンピューティングでは、機密性の高いデータを大量に扱うことが多くなります。これらのデータが漏洩した場合、プライバシー侵害の懸念が生じる可能性があります。

エッジネットワークに加わるIoTやコネクテッドデバイスが増えると、潜在的な攻撃対象も拡大します。また、エッジコンピューティング環境のデバイスやユーザが移動する可能性もあります。そのため、攻撃を阻止するためのセキュリティルールを設計することが難しくなります。

エッジコンピューティングでセキュリティを確保するための1つのアプローチは、デバイス自体で行う処理を最小限にすることです。デバイスからデータを収集してパッケージ化し、エッジPoPにルーティングして処理することができます。しかし、自動運転車やビルオートメーションシステムに搭載されたセンサーが、リアルタイムでデータを処理して意思決定を行う必要がある場合などは、必ずしもそうはいかないこともあります。

保存中および転送中のデータを暗号化することで、エッジコンピューティングにおけるセキュリティ上の懸念を解消することができます。これにより、仮にデバイスのデータが流出したとしても、個人情報を解読することはできません。

また、エッジデバイスは、電源や電力、ネットワーク接続の要件が異なる場合があります。このため、エッジデバイスの可用性や、いずれかのPoPがダウンした場合の問題が懸念されます。エッジコンピューティングでは、GSLB(グローバル・サーバ・ロードバランサ)という技術を用いて、複数のエッジPoP間でトラフィックを分散させることで、この問題に対処しています。GSLBは、複数のエッジPoP間でトラフィックを分散する技術で、1つのPoPが過負荷でダウンしそうになっても、他のPoPが引き継いでユーザのリクエストに応えます。

エッジコンピューティングとクラウドコンピューティングの違い

クラウド・コンピューティングは、インターネット上でストレージ、アプリケーション、処理能力をオンデマンドサービスで提供する技術です。コンピュータの黎明期には、企業はアプリケーションを実行するために、データセンターやハードウェアなどのコンピューティング・インフラを構築する必要がありました。これは、初期費用、複雑な管理、インフラ維持のための人件費を意味し、これらの費用は規模に応じて増加しました。

クラウドコンピューティングは、基本的に企業がデータストレージやアプリケーションへのアクセスをクラウドサービスプロバイダから「レンタル」するものです。クラウドサービスプロバイダは、データセンター内の集中型アプリケーションの所有と管理に責任を負い、企業はこれらのリソースの使用量に応じて料金を支払うだけです。エッジコンピューティングは、アプリケーションや計算機をユーザの近くに移動させるという点で異なります。

エッジコンピューティングとクラウドコンピューティングの違い

ステートレス VS ステートフル

クラウドコンピューティングとエッジコンピューティングのもう一つの決定的な違いは、ステートフルなアプリケーションとステートレスなアプリケーションの扱い方にあります。

ステートフルなアプリケーションとは、以前のトランザクションに関する情報を保存するアプリケーションのことです。オンラインバンキングや電子メールなどがその例で、新しいトランザクションは以前に起こったことと関連して実行されます。これらのアプリケーションは、その状態についてより多くのデータを保存する必要があるため、従来のクラウドに保存するのが適しています。

Stateless applications are those that don’t store any information in reference to past transactions. For example, entering a query in a search engine is a stateless transaction. If the search is interrupted or closed, you will start a new one from scratch. The applications which run on the edge are often stateless as they need to be moved around and require less storage and computation.

帯域幅の要件

Cloud computing and edge computing also differ in the bandwidth requirements of the applications they handle. Bandwidth refers to the amount of data that can travel between the user and the servers across the internet. The higher the bandwidth, the greater the impact on the performance of the applications and the resulting costs.  

Since the distance that the data has to travel to a centralized cloud is much more, applications require less bandwidth. When you have applications that require high bandwidth for their performance, edge computing is the way to go.

While edge computing and cloud computing may differ in many aspects, utilizing one does not preclude the use of the other. For example, to address the latency issues in a public cloud model, you can move processing for mission-critical applications closer to the source of the data.

レイテンシ(遅延)

One of the main differences between cloud computing and edge computing pertains to latency. Cloud computing can introduce latency because of the distance between users and the cloud. The edge infrastructure moves computing power closer to end users to minimize the distance that data has to travel, while still retaining the centralized nature of cloud computing.  Thus edge computing is better for latency-sensitive applications while cloud computing works for those for which latency is not a major concern.

エッジコンピューティングの利点

Edge computing helps businesses provide seamless user experiences to their users. Developers can use edge computing platforms to specify the right resources needed for applications and deploy and scale them up as necessary. Here are four ways in which edge computing benefits businesses.

1. 帯域やクラウドのリソースを最適化することで、コストを削減できる

As more offices get equipped with smart cameras, printers and other IoT devices, the bandwidth and cloud resources required also increase, driving up costs. Statista predicts that by 2025 there will be over 75 billion Internet of Things devices installed worldwide. To support all those devices, significant amounts of computation will have to be moved to the edge.

2. 遅延を短縮してパフォーマンスを向上させる

When web applications run processes that communicate with an external server, users will encounter delays. The duration of these delays can vary based on the available bandwidth and server location. But if more processes are moved to the network edge through edge computing, such delays can be minimized or avoided altogether. In some cases, the deployment of low latency applications can also be automated based on the resources available.

3. 企業が新しい機能を提供するのに役立つ

Since edge computing moves computation closer to the source, it allows businesses to deliver new functionalities. Think of a business deployment of a graphics-heavy web page that has elements of augmented reality. Or an autonomous vehicles manufacturer exploring applications that need to process a lot of artificial intelligence algorithms and machine learning capabilities. Relying on sending the data to a centralized source far away is not practical, while edge computing will allow the business to run these processes in real-time.

4. アプリケーションの高可用性を確保する

Businesses that provide services over the internet need to ensure continuous availability for their applications. Disruptions can affect customer experience and satisfaction, such as in the case of e-commerce stores. In more critical scenarios such as a refinery gas leakage detection system, the impact of disruptions could be the difference between life or death. Edge computing ensures any disruptions that arise are localized to specific nodes as opposed to the entire network and ensures that applications are always available and running.

High availability is more about to when 1 PoP down GSLB will bring traffic to the other node, so service won’t stop

エッジコンピューティングのユースケース

Unified Streaming, an Amsterdam based streaming services technology provider, was looking for a way to deal with the rising costs of large scale content distribution. They were seeing a rise in CDN cache and cloud storage costs with more video formats, protocols and encryption schemes.

Using CDNetworks Edge Computing Platform, they were able to generate different alternative formats and encodings for streaming in real-time. The result was a 50 percent reduction in cloud egress and CDN caching footprint. Rufael Mekuria, Head of Research and Standardization at Unified Streaming says of the CDNetworks experience, “We were impressed with the ease of use of the ECP and the consistent performance results.”

Play Video