株式会社モルフォ

画像処理の精鋭が生み出した世界基準のAI技術

サービスページ

Feature サービスの特徴

  • モルフォが誇る世界最速級ディープラーニング推論エンジン「SoftNeuro」

     モルフォが誇る世界最速級ディープラーニング推論エンジン「SoftNeuro」

    SoftNeuroは学習済みニューラルネットワークの推論処理を、あらゆるプラットフォームで高速に行うためのソフトウェアエンジンです。 Intel CPU、ARM CPU、Qualcomm DSP(HNN)、NVIDIA GPU(CUDA)、その他のGPU(OpenCL)など、多種多様なプロセッサをサポートしており、 それぞれに対する最適な実装を揃えることによって、あらゆるプラットフォームにおける高速な推論処理を実現しています。 サポート対象とするプラットフォームは今後も拡大していく予定です。 2018年には米エッジAI業界団体のベストAIテクノロジー賞を受賞し、2019年には関連技術の特許化も行っています。

  • Amazonギフト券プレゼントあり!「SoftNeuro」SDKを無料でお試しいただけます(12月31日まで)

     Amazonギフト券プレゼントあり!「SoftNeuro」SDKを無料でお試しいただけます(12月31日まで)

    ダウンロードサイトより、12月31日まで「SoftNeuro」の各種SDKを無料でお試しいただくことが可能です。 お試しいただけるSDKは、Linux (Intel) 、Linux (Arm) 、Windows (Intel)です。 お試し後の「ご利用者様アンケート」にお答えいただいたすべての方に、Amazonギフト券1000円分をプレゼントいたします! (期間限定・非商用利用に限ります)

  • 世界最速級の高速推論をいますぐお試しください

     世界最速級の高速推論をいますぐお試しください

    サービスページ(https://softneuro.morphoinc.com/index.html)のチュートリアルには、詳細なインストール手順をはじめ各種ドキュメントから用語集、トラブルシューティングなど豊富なコンテンツをご用意。 ダウンロード後すぐにお試しいただくことが可能です。

サービスページ

Service サービスについて

豊富な対応プラットフォーム

SoftNeuroを利用する際は、一般に広く利用されている深層学習フレームワークのモデルを SoftNeuro専用の形式(DNNファイル)に変換して推論を実行します。 現在モデル変換機能がサポートしているのはTensorFlow、Keras、ONNXのモデルです。 また、ONNXモデルを経由することでPyTorch、Chainer、Microsoft Cognitive Toolkit、MXNet、PaddlePaddleなどのモデルも利用することが可能です。 また、CLIツールを利用したモデル変換では、高速化のために Layer fusion などのグラフ最適化を行っています。

豊富な対応プラットフォーム

親切なチュートリアルページをご用意

サービスページ(https://softneuro.morphoinc.com/index.html)のチュートリアルには、詳細なインストール手順をはじめ各種ドキュメントから用語集、トラブルシューティングなど豊富なコンテンツをご用意。 ダウンロード後すぐにお試しいただくことが可能です。 ウェビナーページ(http://www.morphoinc.com/webinar)ではインストール手順を動画でもご紹介しています。(視聴には無料ご登録が必要です)。

親切なチュートリアルページをご用意

学習済みモデルファイルで高速性能をご体験ください

SoftNeuro Model Zoo(https://softneuro.morphoinc.com/model_zoo.html)に各種学習済みモデルファイルをご用意。 Classification/Detection/Segmentationのそれぞれで、高速な動作をすぐに体験いただけます。

学習済みモデルファイルで高速性能をご体験ください

サービスページ

Corporate 会社概要

AIサービス一覧を見る