راه اندازی موفق پروژه های هوش مصنوعی


پروژه‌های هوش مصنوعی به‌دلیل ماهیت غیرقطعی و پیچیده‌شون، نرخ شکست بالاتری نسبت به پروژه‌های IT دارن. حتی محصولات موفق هم بدون جلب اعتماد کاربران، شکست می‌خورن و استفاده نمی‌شن. اعتماد و پذیرش سازمانی، کلید اصلی موفقیت واقعی در اجرای پروژه‌های هوش مصنوعی محسوب می‌شه.

برای موفقیت پروژه‌های هوش مصنوعی، انتخاب کاربرد درست و هم‌راستا با استراتژی کسب‌وکار حیاتی است. شناخت دقیق مخاطب نهایی—چه مشتری بیرونی باشد، چه کارمند داخلی—در طراحی و پذیرش محصول نقش کلیدی دارد. شرکت‌ها باید از ابتدا به اعتماد، اخلاق، و پیامدهای اجتماعی فکر کنند تا بین چابکی و اثربخشی تعادل برقرار کنند.

آزمایش مستمر و تعریف دقیق فرضیات، کلید بهبود محصولات هوش مصنوعی و جلوگیری از اتلاف منابع است. ارزیابی واقعی روی کاربران ضروری است، چون الگوریتم‌ها در تعامل با کل اکوسیستم سازمان، ممکن است اثرات ناخواسته داشته باشند. ممیزی مستقل، مثل تجربه لینکدین، نشان می‌دهد که حتی الگوریتم‌های ساده می‌توانند پیامدهای عمیق و غیرمنتظره‌ای بر زندگی کاربران بگذارند.

الگوریتم‌های هوش مصنوعی می‌تونن اثرات بلندمدت و زنجیره‌ای بر رفتار کاربران و بازار کار داشته باشن، مثل افزایش ارتباطات ضعیف و فرصت‌های شغلی. ارزیابی دقیق و شفاف‌سازی، مثل تجربه لینکدین، به سازمان‌ها کمک می‌کنه پیامدهای واقعی محصولاتشون رو بشناسن. با وجود پیچیدگی بالا، پروژه‌های هوش مصنوعی ارزش بالایی دارن و با ساختاردهی درست، می‌تونن به نتایج مؤثر و پایدار منجر بشن.

به صورت کلی این پادکست با بررسی نرخ بالای شکست پروژه‌های هوش مصنوعی آغاز می‌شود—حدود ۸۰٪، که دو برابر پروژه‌های سنتی IT است. یاوُر بوجینوف، استاد مدیریت هاروارد، توضیح می‌دهد که دلیل این شکست‌ها، ماهیت غیرقطعی و پیچیده‌ی هوش مصنوعی، نبود اعتماد کاربران، و انتخاب نادرست پروژه‌هاست.

او چهار مرحله کلیدی برای موفقیت پروژه‌ها معرفی می‌کند:
1. انتخاب درست پروژه: باید هم‌راستا با استراتژی کسب‌وکار باشد و پیامدهای اخلاقی‌اش از ابتدا بررسی شود.
2.
طراحی با محوریت کاربر: شناخت دقیق مخاطب—چه کارمند داخلی باشد، چه مشتری بیرونی—در پذیرش و اثربخشی محصول حیاتی است.
3.
آزمایش و ارزیابی دقیق: تست فرضیات، پایش اثرات جانبی، و بررسی شاخص‌های واقعی کسب‌وکار مثل تجربه Etsy و لینکدین.
4.
ممیزی و بهبود مستمر*: الگوریتم‌ها باید تحت نظارت و حسابرسی قرار بگیرند تا اثرات ناخواسته شناسایی و اصلاح شوند.
در پایان، یاوُر تأکید می‌کند که با وجود سختی‌های زیاد، ارزش پروژه‌های هوش مصنوعی بسیار بالاست و با ساختاردهی درست، می‌توان از شکست جلوگیری کرد و به نتایج پایدار رسید.

 

 

متن پادکست:

کرت نیکیچ: خوش اومدید به مجموعه پادکست‌های مدیریت هاروارد. من کرت نیکیچ هستم.
هوش مصنوعی این پتانسیلو داره که کل چشم‌انداز کسب‌وکارو عوض کنه، از بازاریابی گرفته تا زنجیره تأمین، خدمات مشتری و فروش. کاربردهاش اونقدر گسترده‌ست که میشه از هر جایی شروع کرد. اما حتی اگه شما یا سازمانتون شروع کرده باشید به تست نهائی، احتمال زیادی هست که پروژه‌هاتون، نصفه‌نیمه رها بشن. درواقع بعضی برآوردها نشون میده حدود ۸۰ درصد پروژه‌های هوش مصنوعی شکست می‌خورن، که این تقریباً دو برابر نرخ شکست پروژه‌های IT شرکتی توی ده سال پیشه. مهمون امروز ما تجربه رهبری پروژه‌های هوش مصنوعی رو داشته و می‌خواد چندتا از بهترینهاشو با ما در میون بذاره.

یاوُر بوجینوف استادیار دانشکده مدیریت هاروارده. قبلاً هم متخصص داده در لینکدین بوده و مقاله‌ای توی مجله مدیریت هاروارد یا همون HBR  نوشته با عنوان «پروژه‌های هوش مصنوعیت رو در مسیر نگه دار». سلام یاوور.

یاوور بوجینوف: سلام کرت، ممنون که منو دعوت کردی.

کرت نیکیچ: می‌خوام اول از نرخ شکست شروع کنم. آدم فکر می‌کنه با این همه سروصدائی که دور و بر هوش مصنوعیه، باید احتمال موفقیت پروژه های هوش مصنوعی بیشتر باشه. ولی یه‌جوری نرخ شکست خیلی بالاتر از پروژه‌های IT قبلیه. چرا اینطوریه؟ فرقش کجاست؟

یاوور بوجینوف: به نظرم این موضوع از همون تفاوت بنیادی شروع میشه. پروژه‌های هوش مصنوعی مثل پروژه‌های IT قطعی و مشخص نیستن. توی پروژه IT، شما تقریباً وضعیت نهایی رو می‌دونید و مطمئنید اگه یه بار یا دوبار اجراش کنید، همیشه همون جوابو میده. ولی این توی هوش مصنوعی درست نیست. یعنی شما همون چالش‌های پروژه IT رو دارید، ولی علاوه‌بر اون یه ماهیت تصادفی و احتمالی هم اضافه میشه که کارو سخت‌تر می‌کنه.

مثلا در مورد الگوریتم‌ها، ممکنه با وجود ورودی یکسان، نتایج متفاوت باشن. چیزی مثل ChatGPT  رو در نظر بگیر، من و تو می‌تونیم دقیقاً یه دستور مشابه بنویسیم، ولی جواب‌هایی که می‌گیریم ممکنه فرق کنه. این یه لایه پیچیدگی و عدم قطعیت اضافه می‌کنه و همین باعث میشه وقتی یه پروژه رو شروع می‌کنید، ندونی آخرش چقدر خوب درمیاد.

حالا وقتی به اون نرخ شکست ۸۰ درصد نگاه می‌کنید، می بینید دلایل مختلفی ممکنه داشته باشه. شاید پروژه همون اول شکست بخوره چون چیزی رو انتخاب کردید که اصلاً قرار نیست ارزشی تولید کنه و خیلی زود ول میشه. ولی ممکنه ادامه بدید، ماه‌ها وقت بذارید برای جمع کردن داده‌های درست و ساختن الگوریتم، اما در نهایت دقتش خیلی پایین بیاد.

مثلاً اگه بخواید تشخیص بدید کدوم یکی از مشتریاتون قراره ترکتون کنه که بتونید باهاش تماس بگیرید، شاید الگوریتمی که ساختید نتونه با دقت کافی این افرادو شناسایی کنه. این خودش یه دلیل شکست میشه. یا یه الگوریتم دیگه می‌تونه خوب عمل کنه، ولی ناعادلانه باشه و پر از جهت گیری. خلاصه نقاطی که ممکنه پروژه شکست بخوره توی هوش مصنوعی خیلی بیشتر از پروژه‌های سنتی IT  هست.

کرت نیکیچ: خب فکر کنم یه احتمال دیگه هم اینه که اگه شما یه محصول خیلی موفق بسازید، اما کاربرا بهش اعتماد نکنن، ازش استفاده نمیشه و درواقع کل هدف نقض میشه.

یاوور بوجینوف: آره دقیقاً. راستش یکی از دلایلی که باعث شد من از لینکدین بیام بیرون و به دانشکده مدیریت هاروارد وارد بشم، همین بود. من یه محصول هوش مصنوعی ساخته بودم که به نظرم خیلی عالی بود واسه تحلیل داده‌های پیچیده. وقتی تستش کردیم، معلوم شد کاری که قبلاً هفته‌ها طول می‌کشید، با این محصول تو یکی دو روز انجام میشه. برای اجراش، یه جشن خیلی قشنگ گرفتیم، کلی هیجان و اعلامیه و همه‌چی. ولی یکی دو هفته بعدش، هیچ‌کس ازش استفاده نمی‌کرد.

کرت نیکیچ: با اینکه می‌تونست کلی براشون صرفه‌جویی زمانی داشته باشه.

یاوور بوجینوف: خیلی زیاد. ما هم تلاش کردیم اینو منتقل کنیم، ولی باز کسی استفاده نکرد. واقعیت اینه که آخرش، همه‌چی به اعتماد ختم میشه. مردم به محصولی که ساخته بودیم اعتماد نداشتن. این یکی از اون چیزهای جالب بود که نشون میده «اگه بسازیش، لزوماً کسی نمیاد استفاده کنه». این داستانو فقط تو تجربه خودم تو لینکدین نشنیدم؛ بارها و بارها جاهای دیگه هم شنیدم. حتی چندتا کِیس با شرکت‌های بزرگ نوشتم که یکی از چالش‌های اصلیشون همین بود: یه هوش مصنوعی فوق‌العاده می‌ساختن، نشون می‌دادن چقدر خوب کار می‌کنه، ولی هیچ‌کس ازش استفاده نمی‌کرد. پس واقعاً سازمان رو متحول نمی‌کنه و هیچ ارزشی نداره. حتی بدتر، مردم کلافه می‌شن، چون حالا یه ابزار جدید اومده که باید راهی پیدا کنن دورش بزنن و بهونه بیارن که چرا نمی‌خوان ازش استفاده کنن.

کرت نیکیچ: خب، از دل اون تجربه‌های دردناک خودت توی عمل، یا از کارای مشاوره‌ای و تحقیقاتیت، به یه سری ایده رسیدی که یه پروژه رو واقعاً موفق کنه؟ به نظر میاد اولین قدم خیلی بدیهیه، ولی درواقع خیلی مهمه: انتخاب درست، انتخاب پروژه یا کاربرد درست. مردم کجاها اشتباه می‌کنن؟

یاوور بوجینوف: اوه کرت، این پروژه‌ها در جاهای مختلفی ممکنه اشتباه پیش برن. در ظاهر خیلی ساده و طبیعی به نظر می‌رسه که هر مدیر و رهبری دائماً در حال اولویت‌بندی پروژه‌هاست، مرتب در حال تعیین ترتیب اجرای اوناست. اما وقتی پای هوش مصنوعی میاد وسط، چند جنبه منحصربه‌فرد وجود داره که باید بهشون توجه بشه.

کرت نیکیچ: آره، توی مقاله‌ت بهشون میگی «ویژگی‌های خاص و غیر معمول» که مدیران معمولاً دوست ندارن اینو بشنون.

یاوور بوجینوف: دقیقاً. اما به‌نظرم وقتی به‌سمت دنیایی حرکت می‌کنیم که بیشتر مبتنی بر هوش مصنوعیه، این موارد به استانداردهایی تبدیل می‌شن که همه باید در نظر بگیرن. من توی مقاله، اینارو به دو بخش تقسیم کردم: امکان‌پذیری و تأثیر، و همیشه به مردم میگم اول با تأثیر شروع کنن. هر چند همه میگن واضحه، ولی واقعاً این به همون «هم‌راستایی استراتژیک» برمی‌گرده. ممکنه فکر کنید خب این خیلی ساده‌ست، من می‌دونم شرکت من دنبال چیه. ولی معمولاً وقتی پای پروژه‌های هوش مصنوعی درمیون باشه، این تیم داده کاویه که تصمیم میگیره روی چی کار کنه.

بر اساس تجربه من، این نیست که متخصصین داده کاوی، همیشه کسب‌وکارو درک کنن. اونا استراتژی رو نمی‌دونن، فقط می‌خوان جدیدترین و بهترین تکنولوژی رو اجرا کنن. واسه همین، خیلی وقتا بین پروژه‌هایی که بیشترین تأثیر رو در کسب و کار دارن و پروژه‌ای که متخصصین داده دنبالشن، هماهنگی نیست، چون اونا میخوان تکنولوژی‌های خفن جدیدو امتحان کنن و این شاید نیاز بازار نباشه. واقعیت اینه که توی بیشتر پروژه‌های هوش مصنوعی، لازم نیست بری سراغ لبه تکنولوژی. ارزش اصلی اونجا نیست، مخصوصاً برای سازمان‌هایی که تازه دارن سفر هوش مصنوعی رو شروع می‌کنن.

بخش دوم، بحث امکان‌پذیریه. اینجا هم مواردی مثل اینکه داده داریم یا نه، زیرساخت داریم یا نه، مطرح میشه. ولی یه بخش دیگه هم هست که می‌خوام روش تأکید کنم: پیامدهای اخلاقی. یه حوزه کامل هست به اسم هوش مصنوعیِ مسئولانه و اخلاقی که توی پروژه‌های IT وجود نداشت. اینجا باید به حریم خصوصی فکر کنید، به عدالت، به شفافیت. اینارو باید قبل از شروع پروژه در نظر بگیرید. چون اگه وسط کار بخواید اینا رو اضافه کنید، هزینه خیلی زیادی داره و ممکنه مجبور بشید کل پروژه رو از نو شروع کنید، که این خودش هزینه و اعصاب‌خوردی همه رو چند برابر می‌کنه.

کرت نیکیچ: پس راه ساده اینه که از همون اول سراغ بخشای سخت برید. این درواقع برمی‌گرده به همون اعتمادی که لازمه، درسته؟

یاوور بوجینوف: دقیقاً. باید از همون اول تا آخر به اعتماد، فکر کنید. چون واقعیت اینه که اعتماد چند لایه داره. یه لایه، اعتماد به خود الگوریتمه: آیا بی‌طرفه‌؟ عادلانه‌ست؟ شفافه؟ اینا خیلی مهمه. ولی به یه معنا چیزی که مهم‌تره اینه که آیا من به توسعه‌دهنده‌ها، کسایی که الگوریتمو ساختن، اعتماد دارم یا نه؟ مثلاً اگه من کاربر نینتندو باشم، می‌خوام بدونم این الگوریتم برای من طراحی شده تا مشکلاتی که دارم رو حل کنه و اینکه سازنده‌ها واقعاً به حرفای من گوش دادن؟ واسه همینه که خیلی مهمه از همون اول بدونید کاربر اصلی کیه تا بتونید بیاریدش توی روند طراحی.

کرت نیکیچ: خب، وقتی میگی باید بدونی کاربرا کیان، منظورت چه کسانیه؟ رهبر شرکت یا افرادی که تیم توسعه رو هدایت می‌کنن؟ جهت کار از کجا میاد؟

یاوور بوجینوف: در اصل دو نوع پروژه هوش مصنوعی داریم. یه دسته پروژه‌هایی هستن که سمت مشتری‌ان؛ یعنی خروجی نهایی میره دست مشتری. مثل الگوریتم رتبه‌بندی نتفلیکس. اون درواقع واسه کارمندای نتفلیکس نیست، برای مشتریاشونه، یا الگوریتم رتبه‌بندی گوگل یا حتیChatGPT  اینا همه پروژه‌های بیرونی‌ان یعنی مخاطبش مشتریا هستن. اما پروژه‌های درونی، اونایی‌ان که برای  کارمندان خود شرکت ساخته می‌شن.

مثلاً یه ابزار اولویت‌بندی فروش که بهت میگه به جای اینکه به فلانی زنگ بزنی، برو به این یکی زنگ بزن. یا یه چت‌بات داخلی که به تیم پشتیبانی مشتری کمک می‌کنه. اینا همشون محصولاتی‌ان که رو به داخل هستن، یعنی مخاطبینش، کارکنان شرکتن. پس اولین قدم اینه که بدونی دقیقاً مخاطب کیه؟ مشتری این پروژه کارمندای خود شرکتن یا طرفای بیرونی؟ تو خیلی از سازمان‌ها، پروژه‌های داخلی، اسمشون میشه علوم داده و زیر نظر تیم داده کاوها پیش میره. درحالی‌که پروژه‌های بیرونی معمولاً میرن زیر نظر تیم یادگیری ماشین یا هوش مصنوعی.

وقتی بفهمی پروژه داخلیه یا خارجی، هم می‌دونی چه کسی قراره بسازه، هم معلومه چقدر می‌تونی با مشتری نهایی تعامل داشته باشی. چون اگه کارمندای داخلی باشن، بهتره از همون اول بیاریشون توی بازی، توی جلسات، حتی در مرحله ایده‌پردازی، تا مطمئن بشی داری مشکل رو درست حل می‌کنی. خب این ابزار، در اصل برای کمک به کار اونا طراحی میشه. اما وقتی پای مشتریا درمیونه، معمولاً گروه‌های متمرکز می‌ذاری تا ببینی ایده درسته یا نه، و بعد بیشتر به آزمایش و تست‌های مداوم متکی میشی تا مطمئن بشی محصول، واقعاً به درد مشتری می‌خوره.

کرت نیکیچ: یکی از جاهایی که کار برای شرکتای بزرگ سخت میشه، موضوع کشمکش بین سرعت و اثربخشیه. اونا می‌خوان سریع آزمایش کنن، زود شکست بخورن و زودتر به موفقیت برسن. اما از اون طرفم نگران مسائل اخلاقی‌ان، روی برندشون حساسن، و می‌خوان تکنولوژی رو تو درست‌ترین جاها استفاده کنن. پیشنهادت برای شرکتایی که بین چابکی و اثربخشی، گیر کردن چیه؟

یاوور بوجینوف: واقعیت اینه که باید مدام چیزای مختلفو امتحان کنید تا الگوریتم بهتر بشه. مثلاً توی یکی از مطالعاتی که تو لینکدین داشتم، نشون دادیم وقتی از تست و آزمایش استفاده می‌کنی، می‌تونی محصول نهایی رو حدود ۲۰ درصد نسبت به شاخص‌های کلیدی کسب و کار بهتر کنی. یعنی این چرخه «امتحان کردیم، یاد گرفتیم، و یادگیری‌ها رو پیاده کردیم» می‌تونه اثر خیلی بزرگی روی محصول نهایی داشته باشه. پس از نظر من، اصل داستان اینه که بفهمی چه زیرساختی لازم داری که بتونی این نوع آزمایشات رو خیلی سریع انجام بدی، و درعین‌حال اطمینان بخش هم باشه.

یکی از راهای ایجاد اطمینان، اینه که به مردم، این امکان رو بدی خودشون انتخاب کنن و تو نسخه‌های آزمایشی‌ عضو بشن. خیلی از شرکتا اینجوری ان که شما می‌تونی ثبت‌نام کنی و مثلاً نسخه آلفا یا بتا رو تست کنی. به این شکل، آخرین نسخه‌ها رو می‌گیری، هرچند ممکنه یه مقدار باگ داشته باشه یا بهترین تجربه نباشه، ولی خب، تو طرفدارش هستی و می‌خوای چیز جدیدو زودتر امتحان کنی. اینجوری یه جامعه کاربری درست می‌کنی که میشه روشون آزمایش کنی بدون اینکه واقعاً به برندت آسیب بزنی.

کرت نیکیچ: خب حالا وقتی آزمایش راه افتاد و شروع به کار کرد، چطوری میدونی ضعیفه یا داره شکست می‌خوره؟ یا اینکه چه چیزایی یاد گرفتی و وقتشه مسیر رو عوض کنی؟ با این همه متغیر، به نظر میاد وسط کار، فعالیت های زیادی رو باید بر اساس قضاوت شخصی انجام بدی

یاوور بوجینوف: آره. چیزی که من همیشه روش تأکید دارم اینه که دقیقاً بدونی داری چه فرضیه‌ای رو توی مطالعه‌ت تست می‌کنی. یه مثال خیلی خوبش Etsy هست.

کرت نیکیچ: خب Etsy همون بازار آنلاین، واسه تولیدکننده‌های مستقل یا کسب‌وکارای کوچیک هنریه؟

یاوور بوجینوف: دقیقاً. چند سال پیش، تیم Etsy به این فکر افتاد که شاید بهتره قابلیت اسکرول بی‌نهایت رو بسازن. مثل فید اینستاگرام یا فیسبوک که همینطور می‌تونی پایین بری و هی چیزای جدید لود میشه. دیگه لازم نیست روی «صفحه بعدی» کلیک کنی.

برای این کار کلی وقت گذاشتن، چون نیاز به بازطراحی رابط کاربری داشت و چند ماه طول کشید. بعد از اینکه ساختنش، آزمایش رو شروع کردن و دیدن هیچ تأثیری نداره. حالا سؤال این بود که خب چی یاد گرفتن؟ شش ماه وقت گذاشتن واسه این. اگه دقیق نگاه کنی، درواقع اونا دو فرضیه رو همزمان داشتن تست می‌کردن.

فرضیه اول این بود: اگه به‌جای ۲۰ محصول توی صفحه، ۵۰ محصول نشون بدم، احتمال خرید بیشتر میشه یا نه؟ فرضیه دوم این بود: اگه نتایجو سریع‌تر نشون بدم چی؟ چون دلیل اینکه مردم از صفحات متعدد خوششون نمیاد اینه که باید کلیک کنن و چند ثانیه صبر کنن تا صفحه ی بعدی لود بشه.

راه ساده‌تر این بود که بدون هیچ مهندسی اضافه‌ای، تعداد نتایج رو از ۲۰ به ۵۰ تغییر بدن. این فقط یه پارامتر بود، می‌شد توی یه دقیقه تستش کرد. اما فرضیه سرعت، یه کم سخت‌تره چون سریع‌تر کردن یه وب‌سایت، آسون نیست. ولی می‌تونستن برعکسشو تست کنن، یعنی عمداً سرعت بارگذاری رو کمی کند کنن و ببینن تأثیری داره یا نه؟

خب در مطالعه بعدی همین کارو کردن و فهمیدن نشون دادن ۲۰ یا ۵۰ نتیجه توی یه صفحه فرق خاصی نداره. و نکته دوم که خلاف تجربه خیلی از شرکتای دیگه بود، ولی با توجه به توضیحی که دادی منطقیه، این بود که واسه Etsy تاخیر یک یا دو ثانیه‌ای خیلی مهم نیست. چون Etsy پر از محصولات خاص و منحصر به فرده که تولیدکننده‌های مستقل، عرضه می‌کنن. پس طبیعیه کاربرا حاضر باشن یه کم صبر کنن.

نتیجه کلی اینه که وقتی داری آزمایش می‌کنی و محصولات هوش مصنوعی می‌سازی، فقط به حداقل محصول پذیرفتنی فکر نکن. واقعاً باید بفهمی چه فرضیاتی زیر بنای موفقیت اون پروژه‌ان و آیا داری درست تستشون می‌کنی یا نه؟

کرت نیکیچ: خب این ما رو می‌بره به بحث ارزیابی. اون یه مثالی بود از جایی که جواب نداد و فهمیدی چرا. حالا از کجا بدونیم یه محصول داره کار می‌کنه یا به اندازه کافی خوب داره جواب می‌ده؟

یاوُر بوجینوف: آره، کاملاً. فکر می‌کنم اول لازمه جواب این سؤال رو بدیم که اصلاً چرا باید ارزیابی کنیم؟ خب شما الگوریتم رو ساختی، تستش کردی، پیش‌بینی‌های دقیقی هم داره. چرا باز لازمه روی آدمای واقعی امتحانش کنیم؟ دلیلش اینه که بیشتر محصولات یا بی‌اثر هستن یا حتی اثر منفی می‌ذارن روی همون شاخص‌هایی که برای بهبودشون ساخته شدن. این موضوع تو خیلی از سازمان‌ها تکرار شده و دلایل مختلفی داره، مخصوصاً برای محصولات هوش مصنوعی. اولیش اینه که هوش مصنوعی هیچ‌وقت تو خلأ کار نمی‌کنه. معمولاً تو کل اکوسیستم شرکت فعالیت می‌کنه. یعنی وقتی یه الگوریتم جدید مستقر می‌کنی، می‌تونه با همه‌چیز شرکت در تعامل باشه. مثلاً فرض کن یه سیستم پیشنهاد جدید داری، ممکنه مشتری‌هاتو از فعالیت‌های با ارزش بالا برای شرکت بِکِشه سمت فعالیت‌های کم‌ارزش، در عین حالی که درگیر بودنشون رو زیاد کنه. اینجاست که می‌فهمی کلی معامله و اثر متقابل وجود داره و تا الگوریتم رو پیاده نکنی، دقیقاً نمی‌دونی چه اتفاقی داره می‌افته.

کرت نیکیچ: خب بعد از اینکه ارزیابی کردی، باید به چی توجه کنی؟ وقتی محصول یا سرویس جا می‌افته، چه بیرونی باشه چه داخلی، روی چه چیزایی باید تمرکز کنی؟

یاوُر بوجینوف: وقتی توی ارزیابی نشون دادی که محصول، به اندازه کافی ارزش ایجاد می‌کنه که بشه ازش استفاده گسترده کرد و کاربرا واقعاً دارن بهره میبرن، اون موقع می‌رسی به مرحله آخر مدیریت؛ یعنی پایش و بهبود الگوریتم. تازه علاوه بر پایش و بهبود، لازمه این الگوریتم‌ها مورد ممیزی قرار بگیرن تا مطمئن بشی اثرات ناخواسته ندارن.

کرت نیکیچ: آره. خب حالا یه مثال از ممیزی بزن. ممیزی و حسابرسی یه‌کم ترسناک به نظر میاد.

یاوُر بوجینوف: آره، می‌تونه خیلی ترسناک به نظر بیاد. فکر می‌کنم شرکت‌ها هم خیلی از حسابرسی می‌ترسن، ولی همه‌شون باید انجامش بدن. معمولاً یه نهاد مستقل لازمه بیاد بررسی کنه. این دقیقاً کاری بود که ما تو لینکدین انجام دادیم. یکی از مهم‌ترین الگوریتم‌های لینکدین همین “افرادی که ممکنه بشناسید” هست که پیشنهاد می‌ده با چه کسانی باید ارتباط بگیری. این الگوریتم احتمال اینو بالا میبره که اگه من فلان آدمو بهت نشون دادم، تو براش دعوت‌نامه بفرستی و اونم قبول کنه. کل هدفش همینه. پس معیار موفقیت این الگوریتم اینه که نسبت تعداد دعوت‌نامه‌هایی که فرستاده شده به تعداد دعوت‌هایی که قبول شدن رو اندازه بگیری.

کرت نیکیچ: یه جورایی مثل شاخص تبدیل.

یاوُر بوجینوف: دقیقاً. تو می‌خوای این عدد تا جای ممکن بالا باشه. حالا چیزی که ما توی این مطالعه نشون دادیم، که خیلی جالب و غیرمنتظره بود و مقاله‌ش هم تو مجله سَیِنس Science  چاپ شد، این بود که یه سال بعد، این الگوریتم داشت واقعا روی اینکه مردم چه شغلی می‌گیرن اثر می‌ذاشت. حتی توی کوتاه‌مدت هم روی تعداد مشاغلی که براشون درخواست می‌دادن اثر داشت. در حالی که اصلاً این الگوریتم برای چنین منظوری طراحی نشده بود. این یه اثر جانبیِ ناخواسته بود.

اما وقتی دقیق‌تر بررسی کردیم، فهمیدیم چرا؟ یه نظریه‌ای هست به اسم “روابط ضعیف” از یه پژوهشگر به اسم گرانووتر Granovetter این نظریه میگه افرادی که بیشترین کمکو در پیداکردن شغل‌های جدید می‌کنند، همون ارتباطات دور و غیرصمیمی هستند. یعنی کسانی که شاید در همون صنعت شما فعالیت دارند، اما مثلاً پنج یا شش سال جلوتر از شمان و در شرکت دیگری کار می‌کنند، افرادی که خیلی خوب نمی‌شناسیدشون، اما نقطه اشتراکی با اونا دارید. خب این دقیقا همون چیزی بود که اتفاق افتاد. بعضی از این الگوریتم‌ها داشتن نسبت “روابط ضعیف” رو توی پیشنهادها زیاد می‌کردن. مردم اطلاعات فراوانی می‌دیدن، برای مشاغل بسیاری درخواست می‌دادن و شغل بیشتری هم پیدا می‌کردن.

کرت نیکیچ: منطقیه، ولی بازم عجیبه.

یاوُر بوجینوف: دقیقاً. منظورم از اکوسیستم همینه. تو داری یه چیزی رو تغییر می‌دی که آدم‌ها با افراد بیشتری ارتباط بگیرن، ولی در کنارش داری روی تعداد درخواست‌های شغلی و تعداد مشاغلی که می‌گیرن توی بلندمدت اثر می‌ذاری. البته این یه مثال، فقط در یه شرکت بود. حالا اگه مقیاس رو بزرگ‌تر ببینی و به این دنیای به‌هم‌پیوسته‌ای که توش زندگی می‌کنیم فکر کنی، می‌بینی الگوریتم‌ها توی خلأ زندگی نمی‌کنن. اونا اثرات زنجیره‌ای دارن اما بیشتر مردم اصلاً این اثرات بلندمدت رو در نظر نمی گیرن.

فکر می‌کنم این یه نمونه عالی بود از اینکه لینکدین چطور شفاف عمل کرد. اجازه داد ما این تحقیق رو منتشر کنیم، بعدشم واقعاً روال‌های داخلیش رو عوض کرد. یعنی اونا پذیرفتن علاوه بر اینکه به همون شاخص‌های کوتاه‌مدت نگاه کنن که کی به کی وصل شد و چند نفر دعوت رو قبول کردن، شروع کردن به تمرکز روی اثرات بلندمدت‌، مثل تعداد درخواست‌های شغلی و مشاغلی که مردم به دست آوردن. به نظرم این خودش نشون‌دهنده قدرت ارزیابی و حسابرسیه. چون باعث می‌شه سازمانت رو خیلی بهتر بشناسی.

کرت نیکیچ: خیلی از چیزایی که توضیح دادی – و خب تو مقاله هم جزئیات زیادیش هست برای هر مرحله – به نظر میاد چرخه‌ایه. یعنی انگار می‌رسی به آخر کار ولی دوباره از اول شروع می‌کنی، چون دوباره داری ارزیابی می‌کنی و شاید فرصت‌های جدیدی برای تغییرات یا حتی محصولات جدید می‌بینی. پس برای اینکه همه‌چی رو جمع‌بندی کنیم، به نظرت مهم‌ترین نکته‌ای که رهبران باید بهش توجه کنن چیه؟

یاوُر بوجینوف: فکر می‌کنم مهم‌ترین پیام اینه که پروژه‌های هوش مصنوعی خیلی سخت‌تر از هر پروژه دیگه‌ای هستن که یه شرکت انجام می‌ده. ولی در عوض، ارزش و نتیجه‌ای که می‌تونن داشته باشن فوق‌العاده زیاده. پس ارزششو داره که براشون وقت بذاری. موضوع ناامیدکننده‌ای نیست. اینکه بدونی این پروژه‌ها چند مرحله دارن و براشون ساختار و زیرساخت بچینی که چطور از هر مرحله عبور کنی، می‌تونه احتمال شکست رو خیلی کاهش بده و باعث بشه پروژه‌ای که روش کار می‌کنی واقعاً تبدیل بشه به محصولی که ازش استفاده ‌بشه و ارزش زیادی هم ایجاد کنه.

کرت نیکیچ: یاوُر، خیلی ممنون که اومدی توی برنامه و این دیدگاه‌هاتو با ما در میون گذاشتی.

یاوُر بوجینوف: منم خیلی ممنونم از دعوتتون.

کرت نیکیچ: این یاوُر بوجینوف بود، استادیار دانشکده مدیریت هاروارد. او مقاله‌ی «پروژه‌های هوش مصنوعی‌تان را در مسیر نگه دارید» رو برای مجله مدیریت هاروارد یا همون HBR  نوشته.
ما قسمت‌ها و پادکست‌های بیشتری داریم که بهتون کمک می‌کنه تیم، سازمان و حتی مسیر شغلی‌تون رو بهتر مدیریت کنین.

ارسال یک دیدگاه

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *