اجازه ندهید خطای هوش مصنوعی به اعتبار برندتان آسیب بزند! چگونه بازاریابان می‌توانند برای اتفاقات اجتناب‌ناپذیر آماده شوند؟!


July–August 2025
تیر-مرداد 1404

دانشکده مدیریت هاروارد

از مجموعه “مدیریت ریسک”

در اکتبر ۲۰۲۳ یک خودروی خودران که توسط شرکت کروز زیرمجموعه روباتاکسی جنرال موتورز اداره می‌شد، در سان‌فرانسیسکو دچار یک تصادف جدی شد. یک خودروی نیسان که توسط یک راننده انسانی هدایت  می شد، به یک عابر برخورد کرد  و او به مسیر خودروی خودران پرتاب شد.

 

بر اساس بررسی یک مشاور مهندسی مستقل، هیچ راننده انسانی عاقل و محتاطی در چنین شرایطی قادر به هدایت خودرو برای جلوگیری از تصادف نبود. با این حال، گزارش اولیه کروز به ناظران، این واقعیت را که عابر پس از برخورد به مدت ۲۰ فوت زیر خودرو کشیده شده بود، حذف کرد. او دچار جراحات شدید شد اما زنده ماند.

با اینکه کروز مسئول تصادف نبود این حادثه،  بحران بزرگی برای شرکت ایجاد کرد. عدم شفافیت آن‌ها باعث شد اداره ملی ایمنی ترافیک بزرگراه‌ها جریمه‌ای ۱.۵ میلیون دلاری برایشان تعیین کند و تحقیقات کیفری توسط وزارت دادگستری آغاز شد؛ پرونده در نهایت با پرداخت ۵۰۰ هزار دلار جریمه حل و فصل شد.

ولی ماجرا به همین‌جا ختم نشد. مجوز فعالیت شرکت در سان‌فرانسیسکو لغو شد، نیمی از کارکنان کروز شغل خود را از دست دادند، مدیرعامل استعفا داد و ارزش شرکت بیش از ۵۰٪ کاهش یافت. این بحران، صنعت خودروهای خودران را هم تکان داد. چند ماه بعد، یک تاکسی بدون راننده وایمو زیرمجموعه آلفابت در سان‌فرانسیسکو مورد حمله قرار گرفت و به آتش کشیده شد و اداره ایمنی بزرگراه ها تحقیقات خود را روی چندین توسعه‌دهنده خودروهای خودران، از جمله وایمو و زوکس زیرمجموعه آمازون آغاز کرد. تا پایان سال ۲۰۲۴ جنرال موتورز اعلام کرد که توسعه کسب‌وکار روبا تاکسی خود را کاملاً متوقف خواهد کرد.

هوش مصنوعی در حال حاضر به‌سرعت در حوزه‌های مختلف، از خودروها تا چت‌بات‌ها مورد استفاده قرار می‌گیرد، اما مثال کروز واقعیتی تلخ را نشان می‌دهد: نهایتاً، هوش مصنوعی هم ممکن است شکست بخورد. وقتی این اتفاق می‌افتد، بسیاری از سازمان‌ها چه سیستم‌های هوش مصنوعی خود را ساخته باشند و چه از سیستم‌های دیگران استفاده کنند در معرض نقد و بررسی عمومی قرار می‌گیرند. اگرچه تاکنون مطالب زیادی درباره چگونگی بازاریابی هوش مصنوعی برای افزایش پذیرش آن نوشته شده است، اما به نحوه بازاریابی هوش مصنوعی به شکلی که سازمان‌ها را برای شکست‌های اجتناب‌ناپذیر آن آماده کند، توجه کمتری شده است.

در هفت سال گذشته، من هفت پژوهش درباره خطرات شکست هوش مصنوعی از زاویه بازاریابی انجام داده‌ام. نتیجه این تحقیقات نشان می‌دهد که مصرف‌کنندگان، شکست‌های هوش مصنوعی را چگونه می‌بینند و چه واکنشی به آن نشان می‌دهند. بازاریابان حرفه‌ای باید به پنج دام مهم در نگرش مصرف‌کنندگان توجه داشته باشند، هم قبل از بروز مشکل و هم بعد از آن.

در این مقاله توضیح می‌دهم که شرکت‌ها چطور باید خود را برای خطاهای هوش مصنوعی آماده کنند و وقتی سیستم‌ها درست عمل نمی‌کنند، چه کاری باید انجام دهند. همچنین بررسی می‌کنم شرکت‌ها چگونه هوش مصنوعی خود را معرفی و تبلیغ می‌کنند و آیا این روش‌ها می‌تواند برایشان ریسک ایجاد کند یا نه. در ادامه، نمونه‌هایی از واکنش سازمان‌ها به شکست‌های هوش مصنوعی را مرور می‌کنم و توصیه‌های کاربردی به مدیرانی ارائه می‌دهم که می‌خواهند ضمن معرفی هوش مصنوعی خود، از برندشان محافظت کنند و اعتماد مشتریان را افزایش دهند.

 

1- مردم معمولاً هوش مصنوعی را اولین متهم می دانند   

برای اینکه بهتر بفهمیم چرا واکنش افکار عمومی و نهادهای نظارتی به حادثه کروز این‌قدر شدید بود، من و همکارانم پژوهشی با بیش از ۵ هزار نفر انجام دادیم. در این پژوهش، سناریوی یک تصادف را برای شرکت‌کنندگان توضیح دادیم که بسیار شبیه اتفاق کروز بود؛ جایی که یک راننده انسانی با یک عابر برخورد می‌کند و عابر به مسیر خودروی دومی پرت می‌شود که هیچ تقصیری در حادثه نداشته است.

به یک گروه گفته شد خودروی بدون تقصیر، خودران بوده و به گروه دیگر گفته شد که همان خودرو توسط یک انسان، رانده می‌شده است. بعد از آن، از شرکت‌کنندگان خواستیم نظرشان را درباره میزان مسئولیت شرکت سازنده خودرو اعلام کنند.

شرکت‌کنندگان، زمانی که خودروی بدون تقصیر، خودران بود، مسئولیت بیشتری را متوجه شرکت سازنده آن می‌دانستند تا زمانی که همان خودرو توسط انسان هدایت می‌شد؛ حتی با وجود اینکه در هر دو حالت، خودرو هیچ کاری برای جلوگیری از تصادف نمی‌توانست انجام دهد. آن‌ها همچنین وقتی خودروی بدون تقصیر توسط انسان رانده می‌شد، شرکت سازنده خودروی خودران را مسئول‌تر از راننده انسانی همان خودرو ارزیابی کردند.

این یافته بعدها توسط یک گروه پژوهشی مستقل در چین هم تأیید شد و نشان داد این نوع نگاه منفی نسبت به هوش مصنوعی در فرهنگ‌های مختلف وجود دارد.

در آزمایش‌های بعدی دیدیم وقتی تمرکز مردم به سمت راننده انسانی مقصر—کسی که ابتدا باعث تصادف شده بود—برود، میزان سرزنش هوش مصنوعی کاهش می‌یابد. وقتی توجه افراد از تازگی خودروی خودران به دیگر عوامل مهم جلب شود، کمتر سناریوهای غیرواقعی و خیالی می‌سازند.

با این حال، کم‌کردن تمرکز از «تازه‌بودن» فناوری با گمراه‌کردن عمدی تفاوت دارد: مدیران نباید نقش هوش مصنوعی در بروز حادثه را پنهان کنند. هرچند مدیران کروز تقصیر را به راننده انسانی نسبت دادند، اما آسیبی که خودرو با کشیدن عابر ایجاد کرده بود را افشا نکردند. وقتی این موضوع فاش شد، کروز کنترل روایت رسانه‌ای را از دست داد و اعتماد نهادهای نظارتی به شرکت آسیب دید.

 

2- وقتی یک هوش مصنوعی شکست می‌خورد، مردم اعتمادشان به سایر هوش‌های مصنوعی را هم از دست می دهند

پیامدهای حادثه کروز برای شرکت‌هایی مثل وایمو و زوکس نشان می‌دهد یک خطر دیگر شکست هوش مصنوعی این است: وقتی سیستم هوش مصنوعی یک شرکت خراب می‌شود، مردم معمولاً فکر می‌کنند سیستم‌های مشابه شرکت‌های دیگر هم مشکل دارند. این اثرِ «انتقال بدنامی» می‌تواند دید عمومی نسبت به همه انواع هوش مصنوعی را منفی کند.

یک مطالعه که توسط پروفسور چیارا لانگونی و همکارانش انجام شد، نمونه خوبی از نحوه وقوع «انتقال بدنامی» شکست را نشان می‌دهد. آن‌ها به ۳۷۲۴ نفر درباره یک مشکل اطلاع دادند: ایالت آرکانزاس نتوانسته بود مزایای معلولیت را به‌درستی به یک فرد دارای معلولیت اختصاص دهد. به برخی از شرکت‌کنندگان گفته شد که یک کارمند انسانی مقصر بوده و به برخی دیگر گفته شد که یک الگوریتم، مقصر بوده است. سپس از آن‌ها پرسیده شد که چقدر احتمال دارد یک کارمند یا الگوریتم در ایالت دیگر (کنتاکی) هم در تخصیص مزایای معلولیت دچار خطا شود.

نتایج نشان داد شرکت‌کنندگان بیشتر احتمال می‌دادند که الگوریتم دچار خطا شود تا یک انسان در کنتاکی. پژوهشگران این اثر را در مورد دیگر شکست‌های هوش مصنوعی، مانند تخصیص نادرست پرداخت‌های تامین اجتماعی، نیز تکرار کردند.

پژوهشگران متوجه شدند که دلیل این واکنش مردم، درک ناقص آن‌ها از نحوه کار هوش مصنوعی است. بسیاری از افراد فکر می‌کنند همه سیستم‌های هوش مصنوعی شبیه هم هستند و ویژگی‌ها و ضعف‌های یکسانی دارند، در حالی که هر سیستم هوش مصنوعی، توانایی‌ها و محدودیت‌های خاص خودش را دارد.

برای اینکه شکست‌های هوش مصنوعی دیگر شرکت‌ها روی برند شما تأثیر منفی نگذارد، باید نشان دهید سیستم‌های هوش مصنوعی شما با محصول رقبایتان فرق دارند. بر ویژگی‌های متمایز خود، مثل الگوریتم‌های اختصاصی، اقدامات ایمنی و نظارت انسانی تأکید کنید. به عنوان نمونه، شرکت آنتروپیک مدل هوش مصنوعی مولد خود، کلود، را این‌گونه معرفی می‌کند:”یک دستیار هوش مصنوعی نسل بعد… آموزش دیده تا ایمن، دقیق و قابل اعتماد باشد و به شما کمک کند بهترین عملکردتان را ارائه دهید.”آنتروپیک همچنین توضیح می‌دهد که چگونه کلود را آموزش می‌دهد . . .

شرکت آنتروپیک از رویکردی «قانون‌مند» استفاده می‌کند که شفاف، قابل فهم و همسو با ارزش‌های انسانی است. این کار به آن‌ها کمک می‌کند کلود را از مدل‌های محبوب رقیب مثل چت جی پی تی و بارد جدا کنند؛ مدل‌هایی که روش آموزش متفاوتی دارند و گاهی به جانبداری یا ارائه اطلاعات نادرست متهم شده‌اند. اگر هر یک از این رقبای دیگر شکست بخورند، آنتروپیک از قبل اقداماتی انجام داده تا اثرات منفی این شکست‌ها روی برند خود را به حداقل برساند.

یکی دیگر از راه‌های پیشگیری این است که نشان دهید یک انسان بر عملکرد هوش مصنوعی نظارت دارد و تصمیم می‌گیرد که توصیه‌های آن اجرا شوند یا نه. وقتی در چنین سازوکاری شکست رخ می‌دهد، مردم کمتر احتمال می‌دهند که سایر سیستم‌های هوش مصنوعی هم خراب باشند، چون آن‌ها این شکست را به‌طور کلی به هوش مصنوعی نسبت نمی‌دهند.

 

3- مردم شرکت‌هایی را که توانایی هوش مصنوعی را بزرگ‌نمایی می‌کنند، بیشتر سرزنش می‌کنند

شرکت تسلا سیستم کمک‌راننده خود را اتوپایلوت می‌نامد، با اینکه برای استفاده از آن، راننده باید همیشه مراقب باشد. پس از چند تصادف مرگبار خودروهای تسلا در حالت اتوپایلوت، این شرکت با پرونده‌های قضایی مواجه شد، از جمله تحقیقی توسط وزارت دادگستری برای بررسی اینکه آیا این نام‌گذاری گمراه‌کننده است یا نه. همچنین اداره ملی ایمنی ترافیک بزرگراه‌ها از تسلا خواسته است تا پیام‌های عمومی خود را طوری اصلاح کند که قابلیت‌ها و محدودیت‌های سیستم را دقیق‌تر نشان دهند.

مدیرعامل تسلا، ایلان ماسک، استفاده از نام اتوپایلوت را با اشاره به صنعت هوانوردی توجیه می‌کند، جایی که این واژه کمک به خلبان‌ها را تداعی می کند و به معنای سیستم کاملاً خودران نیست. اما آیا مصرف‌کنندگان این برداشت را دارند؟

من و همکارانم مسئله بزرگ‌نمایی هوش مصنوعی را در مطالعه‌ای با ۹۴۹۲ شرکت‌کننده بررسی کردیم، با استفاده از شبیه‌ساز رانندگی و سناریوهای فرضی تصادف. به یک گروه گفته شد خودروی جدید اتوپایلوت نام دارد (نشانه توانایی بالای هوش مصنوعی) و به گروه دیگر گفته شد نام آن کوپایلوت است (نشانه توانایی متوسط هوش مصنوعی). شرکت‌کنندگان سپس وارد یک شبیه‌سازی رانندگی شدند و هر زمان که احساس کردند نیاز است، می‌توانستند کنترل فرمان را در دست بگیرند. در این سناریو، خودرو به یک چهارراه شلوغ نزدیک می‌شد و تا وقتی شرکت‌کننده مداخله نمی‌کرد، با عابران پیاده برخورد داشت.

نتایج نشان داد که شرکت‌کنندگان وقتی خودرو، اتوپایلوت نام داشت نسبت به زمانی که نام آن کوپایلوت بود، دیرتر وارد عمل شده و کنترل فرمان را به دست می‌گرفتند. این نشان می‌دهد خودِ نام خودرو باعث اعتماد بیش از حد و راحت‌طلبی آن‌ها شده بود. هر چه تصور می‌کردند خودرو توانایی بیشتری دارد—همان‌طور که از نامش برداشت می‌شد—دیرتر مداخله می‌کردند.

مطالعات دیگر نیز نشان داد مردم وقتی شرکت‌ها از نام‌هایی استفاده می‌کنند که توانایی بالاتر هوش مصنوعی را القا می‌کنند، بیشتر آن‌ها را مسئول تصادف می‌دانند. این یعنی چنین نام‌گذاری‌هایی، هم رفتار پرخطر مصرف‌کننده را افزایش می‌دهد و هم میزان سرزنش شرکت در صورت وقوع شکست را بیشتر می‌کند.

بر اساس این نتایج، من و همکارانم فرض کردیم که یک رویکرد رایج بازاریابی ممکن است هنگام شکست هوش مصنوعی نتیجهٔ معکوس بدهد: بزرگ‌نمایی محصول خود و برتر نشان دادن آن نسبت به رقبا. مطالعات بعدی ما این فرضیه را تأیید کرد: وقتی شرکت‌ها این کار را انجام می‌دادند، توانایی سیستم‌های خود را در نظر مخاطبان بالاتر جلوه داده و به‌طور غیرعمدی باعث می‌شدند شرکت‌کنندگان میزان مسئولیت آن‌ها در صورت وقوع شکست را بیشتر ببینند.

این یافته نشان می‌دهد کمپین‌های تبلیغاتی مانند جنرال موتورز با شعار «انسان‌ها در تصادف‌ها فاجعه هستند» ممکن است در تصادف‌هایی که بعداً رخ داد، نتیجه معکوس داشته باشند.

این اثرات به این دلیل رخ می‌دهد که سیستم‌های هوش مصنوعی می‌توانند طیف وسیعی، از خودران جزئی (که در آن انسان مسئول اصلی عملکرد سیستم است) تا خودران کامل (که در آن هوش مصنوعی کنترل را در دست دارد) را در بر بگیرند. با این حال، بیشتر مصرف‌کنندگان نمی‌دانند هر سیستم هوش مصنوعی دقیقاً در کجای این طیف قرار دارد. این موضوع برای بازاریابان یک معضل ایجاد می‌کند: تبلیغات صادقانه توانایی واقعی سیستم را نشان می‌دهند، اما شرکت‌ها اغلب وسوسه می‌شوند از تبلیغاتی استفاده کنند که قابلیت‌ها را بزرگ‌نمایی می‌کند تا فروش افزایش یابد.

اگر برای تبلیغ هوش مصنوعی خود از مفهومی استفاده می‌کنید که توانایی واقعی آن را بزرگ‌نمایی می‌کند، حتماً در جای دیگری—مثل وب‌سایت یا توضیحات محصول—به‌طور شفاف و دقیق قابلیت‌های واقعی سیستم را توضیح دهید. تحقیقات من نشان می‌دهد شرکت‌هایی که هم تبلیغ جذاب و هم اطلاعات واقعی سیستم را ارائه می‌کنند، نسبت به شرکت‌هایی که فقط از تبلیغ گمراه‌کننده استفاده می‌کنند، هنگام بروز خطا، کمتر جریمه و سرزنش می‌شوند.

راه ساده‌تر این است که از همان ابتدا از تبلیغ صادقانه و کم‌گمراه‌کننده استفاده کنید. شاید این کار توانایی سیستم را بیش از حد نشان ندهد، اما حداقل هیچ ریسکی برای شرکت ندارد.

 

4- مردم هوش مصنوعی‌هایی را که شبیه انسان طراحی شده‌اند، سخت‌گیرانه‌تر قضاوت می‌کنند

شرکت‌ها روزبه‌روز بیشتر از سیستم‌های هوش مصنوعی استفاده می‌کنند که ویژگی‌های انسانی دارند. برای مثال ویسا یک اپلیکیشن سلامت روان، از یک شخصیت کارتونی استفاده می‌کند که به افراد در انجام تمرین‌ها کمک می‌کند، و اپلیکیشن‌های همراه هوش مصنوعی مانند رپلیکا از تصاویر واقعی انسان استفاده می‌کنند که «احساسات» و «تفکرات» را نشان می‌دهند.

این نشانه‌ها می‌توانند این تصور را ایجاد کنند که ربات دارای احساسات، اهداف، خواسته‌ها و ویژگی‌های شخصی است—در حالی که در واقع چنین ویژگی‌هایی ندارد. ربات‌هایی که انسان‌گونه طراحی شده‌اند، نسبت به ربات‌های معمولی برای شرکت‌ها مزایای متعددی دارند: آن‌ها تمایل مصرف‌کنندگان به خرید، میزان اعتماد، وفاداری به برند، پیروی از درخواست‌های ارائه‌دهنده و تمایل به افشای اطلاعات شخصی را افزایش می‌دهند. این اثرات حتی زمانی که مردم می‌دانند با یک ماشین صحبت می‌کنند نیز باقی می‌ماند.

 

در مطالعه‌ای که توسط پروفسور راجی سیرینی واسان و همکارش انجام شد، به شرکت‌کنندگان درباره یک شرکت سرمایه‌گذاری توضیح داده شد که مرتکب خطا شده و باعث ضرر مشتریان شده است. به یک گروه گفته شد این خطا توسط یک «برنامه الگوریتمی» رخ داده و به گروه دیگر گفته شد یک هوش مصنوعی انسان‌گونه به نام چارلز مسئول بوده است. نتایج نشان داد نگرش نسبت به برند وقتی الگوریتم، انسان‌گونه شده بود، منفی‌تر است.

مطالعات بعدی نشان داد ربات‌های انسان‌گونه بیشتر به ویژگی‌های ذهنی مانند یادآوری، درک، برنامه‌ریزی و تفکر نسبت داده می‌شوند، و همین باعث می‌شود مسئولیت بیشتری به آن‌ها نسبت به شکست‌ها داده شود.

در مطالعه دیگری، تیمی به رهبری کمی کرولیک دریافت که شرکت‌کنندگان، یک چت‌بات ناکام را وقتی هم از نشانه‌های کلامی و هم تصویری انسان‌گونه استفاده می‌کرد (مثل زبان اول شخص، معرفی خود با نام Jamie  و داشتن آواتار زنانه)، نسبت به زمانی که فقط از نشانه‌های کلامی استفاده می‌کرد، منفی‌تر ارزیابی کردند. این نشان می‌دهد ویژگی‌های انسان‌گونه، اثر جمع‌شونده‌ای روی واکنش منفی به شکست دارند.

باید در استفاده از چت‌بات‌ها در موقعیت‌هایی که مشتریان ممکن است عصبانی شوند، بسیار محتاط باشید. در مطالعه‌ای دیگر به رهبری کرولیک حدود ۵۰۰,۰۰۰ جلسه چت‌بات مشتریان یک شرکت بین‌المللی مخابراتی بررسی و مشخص شد هرچه مشتریان، چت‌بات را بیشتر شبیه یک انسان حس کنند—مثلاً از نام کوچک آن در گفتگو استفاده کنند—رضایتشان هنگام عصبانیت کاهش می‌یابد.

برای کاهش این مشکل، می‌توان ربات‌های انسان‌گونه را فقط در حوزه‌های خنثی مانند جستجوی محصولات به کار برد و کمتر در نقش‌هایی که معمولاً با مشتریان عصبانی سروکار دارند، مثل مراکز خدمات مشتری به کار برد. روش دیگر این است که از همان ابتدا انتظارات مشتری را مدیریت کنید. برای مثال، چت‌بات اسلک با پیامی مانند: «سلام، من اسلک بات هستم. سعی می‌کنم کمک کنم، اما هنوز فقط یک رباتم. ببخشید!» خود را معرفی می‌کند. ربات‌هایی که چنین توضیحاتی می‌دهند، هنگام شکست، کمتر باعث عصبانیت مشتریان می‌شوند.

 

5– مردم از اینکه هوش مصنوعی یا برنامه‌ها تصمیماتشان را از قبل تعیین می‌کنند، عصبانی می‌شوند

در سال ۲۰۱۶ یک مدیر ارشد در مرسدس‌بنز اعلام کرد که هنگام توسعه خودروهای خودران، ایمنی سرنشینان را بر ایمنی عابران و دیگر کاربران جاده ترجیح می‌دهند. منطق او ساده بود: اگر فقط یک جان قابل نجات باشد، باید جان فرد داخل خودرو حفظ شود. این اظهارنظر باعث جنجال خبری شد؛ یک روزنامه زرد حتی تیتر زد که شرکت”ترجیح می‌دهد یک کودک را زیر بگیرد تا سرنشینان خودرو را نجات دهد.”

چند هفته بعد، مرسدس‌بنز رسماً اعلام کرد که نه مهندسان و نه سیستم‌های خودران نباید درباره ارزش نسبی جان انسان‌ها تصمیم‌گیری کنند. واکنش‌های احساسی این حادثه نشان می‌دهد مردم اخلاقی نمی‌دانند که شرکت‌ها عمداً ترجیحات گروهی—مثلاً بر اساس سن، جنسیت یا وضعیت مشتری—را در سیستم‌های هوش مصنوعی برنامه‌ریزی کنند.

برای آزمایش این فرضیه، من همراه با پروفسور مینا سیکارا از دانشگاه هاروارد مطالعه‌ای انجام دادیم و از ۸۲۶ شرکت‌کننده در ایالات متحده خواستیم تصور کنند که یک خودروی کاملاً خودران با چند معضل دشوار روبه‌روست—مثلاً اینکه به سمت یک فرد سالمند یا یک کودک خردسال منحرف شود—و در نهایت با یکی از این دو گروه برخورد می‌کند. نکته مهم این بود که ما بررسی کردیم خودرو، تصمیم خود را به صورت تصادفی می‌گیرد یا بر اساس برنامه‌ای که یک گروه را بر گروه دیگر اولویت می‌دهد.

نتایج نشان داد که شرکت‌کنندگان وقتی خودرو برنامه‌ای داشت که گروهی را اولویت می‌داد، خشمگین‌تر بودند نسبت به وقتی که تصمیم به صورت تصادفی گرفته می‌شد. این نشان می‌دهد شرکت‌ها ممکن است نخواهند اعلام کنند که سیستم‌هایشان بر اساس اولویت‌های گروهی تصمیم می‌گیرند. در برخی موارد، حتی ممکن است بخواهند از جمع‌آوری داده‌هایی مانند نژاد، جنسیت و سن برای هدایت رفتار سیستم‌های هوش مصنوعی اجتناب کنند.

راه دیگر این است که از ویژگی‌های ساختاری موقعیت استفاده کنند، مانند اولویت دادن به نجات تعداد بیشتری انسان در مقابل تعداد کمتر. مطالعه‌ای توسط بیگمن نشان داد که مردم بیشتر از سیستم‌های هوش مصنوعی که از اولویت‌های ساختاری استفاده می‌کنند، حمایت می‌کنند تا اولویت‌های گروهی، احتمالاً به این دلیل که اولویت‌های ساختاری دلیل واضح و منطقی دارند که بیشتر افراد با آن موافق هستند.

شکست هوش مصنوعی اجتناب‌ناپذیر است. بازاریابان باید بدانند همان اقداماتی که امروز باعث جذب کاربران می‌شود، می‌تواند هنگام بروز شکست مشکلاتی ایجاد کند—به‌ویژه وقتی مزایا و برتری‌های هوش مصنوعی خود را بزرگ‌نمایی می‌کنند. بنابراین قبل از اجرای هر استراتژی بازاریابی، حتماً پنج چالش اصلی مرتبط با هوش مصنوعی را بشناسید. بررسی این ریسک‌ها به شرکت کمک می‌کند بازاریابی‌ای داشته باشد که هم فروش هوش مصنوعی را افزایش دهد و هم ریسک برند و مسئولیت شرکت را در صورت شکست آینده کاهش دهد.

 

ارسال یک دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *