How to manage risk as AI spreads throughout your organization



AI is already baked into a range of tools, from IT infrastructure management to DevOps software to CRM suites. However, most of those tools were adopted without an AI risk-mitigation strategy in place. GE Aviation relies on AI to build digital models that better predict when parts will fail, while Amazon had to scrap its AI-powered résumé screener because it filtered out female candidates. Similarly, Microsoft shut down its AI chatbot after it turned into a Nazi


AIはすでに、ITインフラストラクチャ管理からソフトウェアをCRMスイートまでDEVOPSまで、さまざまなツールに焼き付けられています。ただし、これらのツールのほとんどは、AIリスク測定戦略が導入されずに採用されました。GE AviationはAIに依存して、部品がいつ故障するかをよりよく予測するデジタルモデルを構築しますが、Amazonは女性の候補者を除外したため、AIを搭載した履歴書スクリーナーを廃棄する必要がありました。同様に、マイクロソフトはナチになった後にAIチャットボットをシャットダウンしました


DataDecisionMakers As AI spreads throughout the enterprise, organizations are having a difficult time balancing the benefits against the risks. AI is already baked into a range of tools, from IT infrastructure management to DevOps software to CRM suites, but most of those tools were adopted without an AI risk-mitigation strategy in place.  Of course, it’s important to remember that the list of potential AI benefits is every bit as long as the risks, which is why so many organizations skimp on risk assessments in the first place.  Many organizations have already made serious breakthroughs that wouldn’t have been possible without AI. For instance, AI is being deployed throughout the health-care industry for everything from robot-assisted surgery to reduced drug dosage errors to streamlined administrative workflows. GE Aviation relies on AI to build digital models that better predict when parts will fail, and of course, there are numerous ways AI is being used to save money, such as having conversational AI take drive-thru restaurant orders.

DataDecisionMakersは、AIが企業全体に広がっているため、リスクに対するメリットのバランスをとるのに苦労しています。 AIは、ITインフラストラクチャ管理からソフトウェア、CRMスイートまで、すでにさまざまなツールに焼き付けられていますが、これらのツールのほとんどは、AIのリスク測定戦略を導入せずに採用されました。もちろん、AIの潜在的な利点のリストはリスクがある限りすべての長さであることを覚えておくことが重要です。そのため、そもそも多くの組織がリスク評価をskipります。多くの組織は、AIなしでは不可能だったとは思わなかった深刻なブレークスルーをすでに行っています。たとえば、AIは、ロボット支援の手術から薬物投与量エラーの減少、合理化された管理ワークフローまで、すべてのためにヘルスケア業界全体に展開されています。 GE AviationはAIに依存して、部品がいつ故障するかをよりよく予測するデジタルモデルを構築します。もちろん、会話のAIにドライブスルーレストランの注文を受けるなど、AIがお金を節約するために使用される方法は数多くあります。

That’s the good side of AI.


Low-Code/No-Code Summit Join today’s leading executives at the Low-Code/No-Code Summit virtually on November 9. Register for your free pass today.


Now, let’s take a look at the bad and ugly.  AI risks are as varied as the many use cases its proponents hype, but three areas have proven to be particularly worrisome: bias, safety, and war. Let’s look at each of these problems separately.  While HR departments originally thought AI could be used to eliminate bias in hiring, the opposite has occurred. Models built with implicit bias baked into the algorithm end up being actively biased against women and minorities.  For instance, Amazon had to scrap its AI-powered automated résumé screener because it filtered out female candidates. Similarly, when Microsoft used tweets to train a chatbot to interact with Twitter users, they created a monster. As a CBS News headline put it, “Microsoft shuts down AI chatbot after it turned into a Nazi.”  These problems may seem inevitable in hindsight, but if market leaders like Microsoft and Google can make these mistakes, so can your business. With Amazon, the AI had been trained on résumés that came overwhelmingly from male applicants. With Microsoft’s chatbot, the one positive thing you can say about that experiment is that at least they didn’t use 8chan to train the AI. If you spend five minutes swimming through the toxicity of Twitter, you’ll understand what a terrible idea it was to use that data set for the training of anything.  Uber, Toyota, GM, Google, and Tesla, among others, have been racing to make fleets of self-driving vehicles a reality. Unfortunately, the more researchers experiment with self-driving cars, the further that fully autonomous vision recedes into the distance.  In 2015, the first death caused by a self-driving car occurred in Florida. According to the National Highway Traffic Safety Administration, a Tesla in autopilot mode failed to stop for a tractor trailer making a left turn at an intersection. The Tesla crashed into the big rig, fatally injuring the driver.  This is just one of a long list of errors made by autonomous vehicles. Uber’s self-driving cars didn’t realize that pedestrians could jaywalk. A Google-powered Lexus sideswiped a municipal bus in Silicon Valley, and in April a partially autonomous TruSimple semi-truck swerved into a concrete center divide on I-10 near Tucson, AZ because the driver hadn’t properly rebooted the autonomous driving system, causing the truck to follow outdated commands.   In fact, federal regulators report that self-driving cars were involved in nearly 400 accidents on U.S. roadways in less than a year (from July 1, 2021 to May 15, 2022). Six people died in those 392 accidents and five were seriously injured.  If self-driving vehicle crashes aren’t enough of a safety concern, consider autonomous warcraft.  Autonomous drones powered by AI are now making life and death decisions on the battlefield, and the risks associated with possible mistakes are complex and contentious. According to a United Nations’ report, in 2020 an autonomous Turkish-built quadcopter decided to attack retreating Libyan fighters without any human intervention.

それでは、悪と醜い人を見てみましょう。 AIのリスクは、その支持者が誇大宣伝する多くのユースケースと同じくらい多様ですが、3つの領域は特に心配であることが証明されています:バイアス、安全性、戦争。これらの各問題を個別に見てみましょう。 HR部門はもともとAIを使用して雇用のバイアスを排除できると考えていましたが、反対が発生しました。アルゴリズムに焼き付けられた暗黙のバイアスで構築されたモデルは、女性やマイノリティに対して積極的に偏っています。たとえば、Amazonは、女性候補者を除外したため、AIを搭載した自動化された履歴書スクリーナーを廃棄する必要がありました。同様に、Microsoftがツイートを使用してチャットボットをトレーニングしてTwitterユーザーと対話すると、モンスターを作成しました。 CBSニュースの見出しが言ったように、「マイクロソフトはナチになった後、AIチャットボットをシャットダウンします。」これらの問題は後知恵では避けられないように思えるかもしれませんが、MicrosoftやGoogleのような市場リーダーがこれらの間違いを犯すことができれば、あなたのビジネスもそうです。 Amazonでは、AIは男性の応募者から圧倒的に来た履歴書の訓練を受けていました。 Microsoftのチャットボットでは、その実験について言えることの1つは、少なくとも8chanを使用してAIを訓練しなかったということです。 Twitterの毒性を5分間泳いでいると、そのデータセットを何でもトレーニングに使用するのがひどい考えであることがわかります。 Uber、Toyota、GM、Google、Teslaなどは、自動運転車の艦隊を現実にするために競っています。残念ながら、より多くの研究者が自動運転車を実験すればするほど、完全に自律的なビジョンが遠くに後退することがさらに進んでいます。 2015年、フロリダで自動運転車によって引き起こされた最初の死が発生しました。 National Highway Traffic Safety Administrationによると、オートパイロットモードのテスラは、トラクタートレーラーが交差点で左折するために停止できませんでした。テスラは大きなリグに衝突し、ドライバーを致命的に負傷させました。これは、自動運転車が作成したエラーの長いリストの1つにすぎません。 Uberの自動運転車は、歩行者がジェイウォークできることに気づきませんでした。 Googleを搭載したLexusがシリコンバレーの市営バスを横に盗み、4月には、ドライバーが自律運転駆動システムを適切に再起動していなかったため、アリゾナ州ツーソンのI-10のコンクリートの中心分割に部分的に自律的な排気口のセミトラックが揺れ動きました。トラックに時代遅れのコマンドに従うことができます。実際、連邦規制当局は、自動運転車が1年以内(2021年7月1日から2022年5月15日まで)で米国の道路で400近くの事故に関与したと報告しています。これらの392の事故で6人が死亡し、5人が重傷を負いました。自動運転車のクラッシュで十分ではない場合は、自律的なWarcraftを検討してください。 AIを搭載した自律ドローンは現在、戦場で生と死の決定を下しており、可能性のある間違いに関連するリスクは複雑で論争的です。国連の報告によると、2020年にトルコ製の自律型クワッドコプターが、人間の介入なしにリビアの戦闘機を退却することを決定しました。

Militaries around the world are considering a range of applications for autonomous vehicles, from fighting to naval transport to flying in formation with piloted fighter jets. Even when not actively hunting the enemy, autonomous military vehicles could still make any number of deadly mistakes similar to those of self-driving cars.


For the typical business, your risks won’t be as frightening as killer drones, but even a simple mistake that causes a product failure or opens you to lawsuits could drive you into the red.  To better mitigate risks as AI spreads throughout your organization, consider these 7 steps:  First, look at the places where AI has already gained a foothold. Find out what is working and build on that foundation. From this, you can develop a basic roll-out template that various departments can follow. However, bear in mind that whatever AI adoption plans and roll-out templates you develop will need to gain buy-in throughout the organization in order to be effective.  Most organizations will want to start small with their AI strategy, piloting the plan in a department or two. The logical place to start is where risk is already a top concern, such as Governance, Risk, and Compliance (GRC) and Regulatory Change Management (RCM).


GRC is essential for understanding the many threats to your business in a hyper-competitive market, and RCM is essential for keeping your organization on the right side of the many laws you must follow in multiple jurisdictions. Each practice is also one that includes manual, labor-intensive, and ever-shifting processes.


With GRC, AI can handle such tricky tasks as starting the process of defining hazy concepts like “risk culture,” or it can be used to gather publicly available data from competitors that will help direct new product development in a way that does not violate copyright laws.  In RCM, handing off things like regulatory change management and the monitoring of the daily onslaught of enforcement actions can give your compliance experts as much as a third of their workdays back for higher-value tasks.  AI can only follow processes that you are able to map in detail. If AI will impact a particular role, make sure those stakeholders are involved in the planning stages. Too often, developers plow ahead without enough input from the end users who will either adopt or reject these tools.  Look for processes that are repetitive, manual, error-prone, and probably tedious to the humans performing them. Logistics, sales and marketing, and R&D are all areas that include repetitive chores that can be handed over to AI. AI can improve business outcomes in these areas by improving efficiencies and reducing errors.  University of Cambridge researchers recently studied 400 COVID-19-related AI models and found that every one of them had fatal flaws. The flaws fell into two general categories, those that used data sets that were too small to be valid and those with limited information disclosure, which led to various biases.

GRCを使用すると、AIは「リスクカルチャー」などのかすんだ概念を定義するプロセスを開始するなど、トリッキーなタスクを処理したり、著作権に違反しない方法で新製品開発を指示するのに役立つ競合他社から公開されたデータを収集するために使用できます。法律。 RCMでは、規制の変更管理や執行措置の毎日の猛攻撃の監視などを引き渡すことで、コンプライアンスの専門家に、より高い価値のタスクのために仕事の3分の1を戻すことができます。 AIは、詳細にマッピングできるプロセスのみに従うことができます。 AIが特定の役割に影響を与える場合、それらの利害関係者が計画段階に関与していることを確認してください。多くの場合、開発者は、これらのツールを採用または拒否するエンドユーザーからの十分な入力なしで先に進みます。繰り返し、手動で、エラーが発生しやすく、おそらくそれらを実行する人に退屈なプロセスを探してください。ロジスティクス、販売、マーケティング、およびR&Dは、AIに引き渡すことができる繰り返しの雑用を含むすべての分野です。 AIは、効率を改善し、エラーを減らすことにより、これらの分野のビジネス結果を改善できます。ケンブリッジ大学の研究者は最近、400人のCovid-19関連AIモデルを研究し、それらのすべてが致命的な欠陥があることを発見しました。欠陥は、2つの一般的なカテゴリに分類されました。これは、有効になるには小さすぎるデータセットと、限られた情報開示を持つデータセットを使用したもので、さまざまなバイアスにつながりました。

Small data sets aren’t the only kind of data that can throw off models. Public data sets may come from invalid sources. For instance, Zillow introduced a new feature last year called Zestimate that used AI to make cash offers for homes in a fraction of the time it usually takes. The Zestimate algorithm ended up making thousands of above-market offers based on flawed Home Mortgage Disclosure Act data, which eventually prompted Zillow to offer a million-dollar prize for improving the model.  As AI models evolve, only a small subset of them are fully autonomous. In most cases, however, AI models greatly benefit from having active human (or better, expert) input. “Supervised AI” relies on humans to guide machine learning, rather than letting the algorithms figure out everything on their own.  For most knowledge work, supervised AI will be required to meet your goals. For complicated, specialized work, however, supervised AI still doesn’t get you as far as most organizations would like to go. To level up and unlock the true value of your data, AI needs not just supervision, but expert input.  The Expert-in-the-Loop (EITL) model can be used to tackle big problems or those that require specialized human judgment. For instance, EITL AI has been used to discover new polymers, improve aircraft safety, and even to help law enforcement plan for how to cope with autonomous vehicles.

モデルを捨てることができるデータの種類だけではありません。パブリックデータセットは、無効なソースから来る場合があります。たとえば、Zillowは昨年、Zestimateと呼ばれる新しい機能を導入しました。これは、AIを使用して、通常の数分の1の時間で家のための現金オファーを作成しました。 Zestimate Algorithmは、欠陥のある住宅ローン開示法データに基づいて数千以上の市場のオファーを作成することになり、最終的にZillowはモデルを改善するために100万ドルの賞を提供するようになりました。 AIモデルが進化するにつれて、それらの小さなサブセットのみが完全に自律的です。ただし、ほとんどの場合、AIモデルは、アクティブな人間(またはより良い、専門家)の入力を持つことから大きな恩恵を受けます。 「監視されたAI」は、アルゴリズムにすべてを自分で理解できるようにするのではなく、機械学習を導くために人間に依存しています。ほとんどの知識作業では、監督されたAIが目標を達成するために必要です。ただし、複雑で専門的な作業の場合、監督されたAIは、ほとんどの組織が行きたいと思っている限り、まだあなたを得ることができません。データの真の値をレベルアップしてロック解除するには、AIには監督だけでなく、専門家の入力が必要です。 Loop-in-the-Loop(EITL)モデルを使用して、大きな問題や専門的な人間の判断を必要とする問題に取り組むことができます。たとえば、EITL AIは、新しいポリマーを発見し、航空機の安全性を向上させ、さらには自動運転車に対処する方法の法執行計画を支援するために使用されています。

Make sure to thoroughly test and then continue to vet AI-driven processes, but once you have the kinks worked out, you now have a plan to extend AI throughout your organization based on a template that you have tested and proven already in specific areas, such as GRC and RCM.  Kayvan Alikhani is cofounder and chief product officer at Compliance.ai. Kayvan previously led the Identity Strategy team at RSA. and was the co-founder and CEO of PassBan (acquired by RSA). 

徹底的にテストしてからAI駆動型のプロセスを検討し続けてください。しかし、キンクが解決したら、特定の領域で既にテストおよび証明したテンプレートに基づいて組織全体にAIを拡張する計画があります。GRCやRCMなど。Kayvan Alikhaniは、Compliance.aiの共同設立者兼最高製品責任者です。Kayvanは以前、RSAでID戦略チームを率いていました。Passbanの共同設立者兼CEO(RSAが買収)でした。


How to manage risk as AI spreads throughout your organization