Responsible AI
「責任あるAI」実現のために
AIモデルは完璧ではなく、時に問題を引き起こします。
私たちは、モデルの開発から運用までを通じて、そうしたリスクに立ち向かうソリューションを提供します。
AIを活用する数々の企業から信頼を得ています
問題点
AIモデルは完璧ではなく、多くのリスクを抱えています
AIの活用は世界中で広がっていますが、そのモデルは完璧ではなく、多くのリスクを抱えています。
データサイエンスのチームは常に警戒体制を敷き、ダッシュボードで観察されるモデルの変化に対応してテストスクリプトを書き換えていく必要があります。
こうしたリスクとその管理コストが、AIの大規模な活用を妨げています。
データサイエンスのチームは常に警戒体制を敷き、ダッシュボードで観察されるモデルの変化に対応してテストスクリプトを書き換えていく必要があります。
こうしたリスクとその管理コストが、AIの大規模な活用を妨げています。
解決策
Responsible AI実現のためのEnd-to-Endのテスト・モニタリング
私たちの掲げるResponsible AIとは、モデルが設計の意図どおりに作動し、AIシステムへのステイクホルダーの信頼が確保されている状態を意味します。
そのためには、モデルのテスト、モニタリング、および改善を行い、精度の劣化やバイアスを防止する一貫したアプローチが必要です。
Robust Intelligenceは、モデルのライフサイクルを通じてResponsible AIを実現するためのプラットフォームを提供します。
そのためには、モデルのテスト、モニタリング、および改善を行い、精度の劣化やバイアスを防止する一貫したアプローチが必要です。
Robust Intelligenceは、モデルのライフサイクルを通じてResponsible AIを実現するためのプラットフォームを提供します。

Robust Intelligenceの強み
Robust Intelligenceの強み
目的に合わせたカスタマイズ
スムーズな導入・利用
拡張性
Robust Intelligenceはモデルをブラックボックスとして扱うため、どのようなモデルアーキテクチャでも導入可能です。たとえばTabularモデル、NLPモデル、コンピュータビジョンモデルなどへのサポートが可能です。
既存のストレステストのパラメータを網羅するとともに、ビジネス・コンプライアンス上重要なカスタムテストや指標を柔軟に追加可能です。
強力なREST APIとPython SDKを使用してRobust Intelligenceを接続。既存のプラットフォームへのインテグレーションや機械学習ワークフローの自動化を実現します。直感的な UI で分析結果を可視化し、社内で共有することができます。
Robust Intelligenceは、数百ものモデルと大量のデータポイントをもつ既存の機械学習パイプラインに、シームレスに接続・拡張することができます。
Robust Intelligenceの強み
Robust Intelligenceはモデルをブラックボックスとして扱うため、どのようなモデルアーキテクチャでも導入可能です。たとえばTabularモデル、NLPモデル、コンピュータビジョンモデルなどへのサポートが可能です。
目的に合わせたカスタマイズ
既存のストレステストのパラメータを網羅するとともに、ビジネス・コンプライアンス上重要なカスタムテストや指標を柔軟に追加可能です。
スムーズな導入・利用
強力なREST APIとPython SDKを使用してRobust Intelligenceを接続。既存のプラットフォームへのインテグレーションや機械学習ワークフローの自動化を実現します。直感的な UI で分析結果を可視化し、社内で共有することができます。
拡張性
Robust Intelligenceは、数百ものモデルと大量のデータポイントをもつ既存の機械学習パイプラインに、シームレスに接続・拡張することができます。
Robust Intelligence
について
ハーバード発最先端AI企業
2019年ハーバード大学の
教授・研究者らによって創業
教授・研究者らによって創業

CEO & Co-Founder
Yaron Singer
ハーバード大学教授
Google AI研究者
UCバークレー PhD
Google AI研究者
UCバークレー PhD
世界トップクラスのAI技術
USトップクラスの
テックカンパニー出身のエンジニアが多数在籍
テックカンパニー出身のエンジニアが多数在籍

Principal ML Engineer
Blaine Nelson
GoogleシニアMLエンジニア
UCバークレー PhD
AI品質分野の草分け、主著“Adversarial Machine Learning”
UCバークレー PhD
AI品質分野の草分け、主著“Adversarial Machine Learning”

Co-Founder
Kojin Oshiba
AIトップ会議に複数論文採択
ハーバード大学学士
ハーバード大学学士

Distinguished Machine Learning Engineer
Hyrum Anderson
前職では、マイクロソフト全社のAIリスク統括を担当
MIT Lincoln Laboratory研究者
MIT Lincoln Laboratory研究者
IT・ガバナンス領域のパートナーシップ
テック企業や監査法人との協業により、
AIガバナンスの価値を最大化
AIガバナンスの価値を最大化
世界最大のVCが支援
SequoiaやTiger Globalから総額50億円調達