学ぶ内容
このコースでは、アルゴリズムリスクと基本的人権への影響評価への体系的なアプローチを学びます。これは、新興技術分野の実務家にとって必須のスキルです。このコースを修了すると、受講者は以下のことができるようになります。
- リスク分析に関連するアルゴリズムシステムの社会技術的要素を特定する
- アルゴリズムの透明性の一形態として、これらのコンポーネントの物語(「CIDA」物語)を作成する
- 重要な利害関係者を特定する
- 関連する利害関係者の主な利益、基本的権利を決定し、アルゴリズムシステムによる潜在的な損害を特定するためのエンゲージメント戦略をリストアップする
- アルゴリズムシステムのどのコンポーネントがリスク分析の指標として機能できるかを決定する
- これらの指標の初期評価戦略を策定する
重要:このコースは元々英語で収録され、AIによって日本語に翻訳されています。ご不明な点や誤訳にお気づきの点がございましたら、BABL AIスタッフまでお知らせください。すぐに修正いたします。
このコースは誰を対象にしていますか?
このコースは、高リスクAIシステムを導入または開発している企業において、AIリスクまたは影響評価を実施する必要があるAIガバナンス、リスク、コンプライアンスの専門家向けに開発されています。この種のトレーニングは、以下の要件に準拠しようとしている企業にとって重要です。
- The EU AI Act
- Digital Services Act
- ISO 42001
- 監査役 ISO 42001 (see ISO 42006)
- NIST AI RMF
このコースと認定が役立つと思われる他のグループ:
- AI倫理とガバナンスのコンサルタント
- AIベンダーによるリスクを懸念する調達スペシャリスト
- AIリスクをデューデリジェンスプロセスに組み込むことを望むVC企業の従業員
このコースは、AI およびアルゴリズム監査人向けの 5 コース認定プログラムの一部です。
講師について
BABL AI CEO兼創設者、シア・ブラウン博士:シア博士は、AIおよびアルゴリズム監査、機械学習におけるバイアス、AIガバナンスの分野で国際的に認められたリーダーです。米国およびEUにおける数多くのAI規制について証言や助言を行っています。また、アルゴリズム監査と人工知能の組織ガバナンスの標準策定に取り組む非営利団体ForHumanityのフェローでもあります。さらに、アルゴリズム監査専門職の発展と組織化、AI監査標準の推進、ベストプラクティスの認証、そして責任あるAIの出現への貢献を目指す実践コミュニティである国際アルゴリズム監査協会の創設メンバーでもあります。ミネソタ大学で天体物理学の博士号を取得し、現在はアイオワ大学物理天文学部の教員として、教養学部から優れた教育活動が認められています。
Curriculum
- アルゴリズムによるリスクと影響の評価の目的 - The goals of an algorithmic risk and impact assessment (11:33)
- 簡素化されたフレームワーク - A simplified framework (23:33)
- 文脈におけるアルゴリズム:CIDAの物語 - Algorithms in context: the CIDA narrative (12:37)
- 利害関係者:利益、権利、損害 - Stakeholders: Interests, rights, and harms (15:41)
- 社会技術システムの指標 - Metrics of a socio-technical system (15:22)
- 演習1:知識を活用する - Exercise 1: Putting your knowledge to work (16:48)
- 事例紹介 - Case study introduction (7:08)
- システム分析とステークホルダーマッピング - System analysis and stakeholder mapping (15:41)
- インタビュー - Interviews (23:26)
- テストと評価 - Testing and evaluation (44:12)
- リスクの大きさ、可能性、優先順位 - Magnitude, likelihood, and risk prioritization (33:03)
- リスク軽減と残留リスク - Risk mitigation and residual risk (11:42)
- 演習2: ドキュメント - Exercise 2: Documentation (13:03)