هوش‌مصنوعی در خدمت سرمایه داری پایشی

 
 

 

 

نویسنده Victor Chaix، Auguste Lehuger & Zako Sapey-Triomphe

برگردان شروين احمدي

 

در سال ۱۹۵۶، شهر دارتموث آمریکا میزبان گروهی از ریاضی‌دانان برای پروژه تحقیقاتی تابستانی دارتموث در مورد هوش مصنوعی (Dartmouth Summer Research Project on Artificial Intelligence) شد، یک سمینار تحقیقاتی که استفاده از عبارت «هوش مصنوعی» (AI) را برای سیستم‌های شبیه‌سازی ذهن انسان متداول کرد.

جان مک کارتی با تحمیل این فرمول خود را از نوربرت وینر و متخصصان سایبرنتیک متمایز ساخت، کسانی که در آن زمان منابع اختصاص داده شده به اتوماسیون فرآیندهای صنعتی را حول خود متمرکز کرده بودند(۱). طرفداران کنفرانس دارتموث که بر خلاف متخصصان سایبرنتیک‌، به نظرات فیلسوفان باستان و علوم زیستی آگاهی داشتند، در عوض بر نظریه اقتصادی لیبرال تکیه کردند. آنها برای نزدیک شدن به رشته مطالعاتی جدید خود از همان ابتدا چنین فرض کردند که «ذهن چیزی بسامان است که در درون مغز فرد زندگی می‌کند و از یک منطق ضمنی و معتبر پیروی می‌کند، و می‌توان آن را با تفکر رایانشی مشتقه از مشاهده‌ی رویدادهای اجتماعی به طور قانع‌کننده‌ای مدل‌سازی نمود»(۲).

روش‌های هوش مصنوعی از نگرش ارتدکسی به اقتصاد* الهام گرفته شده‌اند، به‌ویژه از طریق برون‌یابی و تعمیم رفتار همه انسان‌ها بر اساس الگوهای رفتاری یک فرد منطقی و محاسبه‌گر. هربرت سایمون، اقتصاددان و یکی از پیشگامان این حوزه، از مطالعات آدام اسمیت در زمینه فرآیندهای مدیریت و تصمیم‌گیری بهره گرفت تا «پارادایم نمادین» هوش مصنوعی را شکل دهد: این پارادایم به طراحی سیستم‌هایی اشاره دارد که مجموعه‌ای از قوانین تصمیم‌گیری تدوین‌شده توسط متخصصان را ترکیب می‌کند. فرانک روزنبلات، روان‌شناس، با الهام از نظرات فردریش هایک در مورد ساختارهای بازار که غیرمتمرکز و خودانگیخته‌اند، سیستمی را طراحی کرد که به‌عنوان جد «شبکه‌های عصبی مصنوعی» و تجسم «پارادایم پیوندگرا» شناخته می‌شود. بر اساس این مدل، هوش مصنوعی باید نظم طبیعی‌ای را به ارمغان بیاورد که قادر به سازماندهی آماری جهان به شیوه‌ای کارآمدتر، کاربردی‌تر و منطقی‌تر از افراد و نهادهای جمعی مانند دولت‌ها باشد.

این دو مفهوم، که اغلب در علم کامپیوتر با هم مخالف هستند، در واقع از نوع همان اصول و بدیهیات اولیه (axiome) فرض می‌شوند. همانطور که فیلسوف متیو تریکلوت استدلال می‌کند، این مفهوم مبهم «اطلاعات» است که امکان تشابه بین چیزهایی بسیار دور از هم مانند ماشین‌ها و موجودات زنده، رایانه‌ها و مغز، اقتصاد سیاسی و متافیزیک را موجب شده است. چنین تشابهاتی همچنین با گفتمان متخصصان سایبرنتیک و پیشگامان علوم کامپیوتر، مانند جان فون نویمان، در تضاد است. او معتقد بود که «پردازش اطلاعاتی که در مغز اتفاق می‌افتد عمیقاً با آنچه در رایانه اتفاق می‌افتد متفاوت است(۳)».

آقایان یوشوا بنجیو(Yoshua Bengio) و یان لکان(Yann Le Cun)، دو چهره‌ی مطرح در حوزه هوش مصنوعی پیوندگرا هستند که در سال ۲۰۱۸ جایزه تورینگ را دریافت کردند. بنجیو استاد رشته علوم کامپیوتر در دانشگاه مونترال است و بر لزوم اتخاذ مقررات و همچنین خطرات ناشی از توسعه نامحدود هوش مصنوعی تأکید می‌کند. در مقابل، لکان که مسئول تحقیقات هوش مصنوعی در متا (فیس بوک) و معاون رئیس این شرکت است، نگرانی کمتری درباره توسعه هوش مصنوعی دارد، احتمالا به دلیل منافع تجاری گروه خود. اگرچه دیدگاه‌های آن‌ها اغلب در تضاد با یکدیگر قرار دارد، هر دو رویکردی رایانشی و فردی به هوش انسانی دارند که ریشه در تفکر مک‌کارتی و روزنبلات دارد.

هوش مصنوعی که ما امروز می‌‌شناسیم، در بطن چالش‌های اقتصادی، فکری، نظامی و حتی فلسفی قرار دارد و غالباً به عنوان پیامد عظیم و گریزناپذیر نبوغ بشری معرفی می‌شود، تا فرزند منحط فردگرایی از نوع آمریکایی‌اش.

در پایان دهه ۱۹۸۰، تحقیقات در زمینه هوش مصنوعی به خواب زمستانی طولانی فرو رفت. حتی خود اصطلاح «هوش مصنوعی» سرمایه‌داران را دلسرد می‌کرد و به ناچار نام «الگوریتم پیشرفته» را برآن نهادند. همزمان در اتحاد جماهیر شوروی، دانشمندان رویکرد متفاوتی را توسعه دادند. آن‌ها با تکیه بر پیش‌فرض‌های ایدئولوژیکیِ مختلف از همکاران غربی خود، ایده ماشین فکری که بتواند عقلانیت انسان را تقلید کند، رد کردند و بر این عقیده بودند که هوش انسانی به عنوان یک ظرفیت اجتماعی و فرهنگی نتیجه تعاملات گسترده بین افراد است. مک‌کارتی و همکارانش به هوش مصنوعی از منظر ایدئولوژی بازار آزاد و علوم شناختی نگریسته و سعی داشتند تا شناخت‌های فردی را تقلید و بازسازی کنند. درحالی‌که هوش مصنوعی «شوروی» برعکس به دنبال بازتولید هوش برآمده از ساختارهای کلانی بود که درک آنها برای انسان بسیار پیچیده است. این دو نگرش در پایان راه به هم رسیدند: سرمایه‌داری برای توسعه هوش مصنوعی آمریکایی و پیوندگرا نیاز به جمع‌آوری گسترده داده‌ها داشت، و شوروی‌ها برای هوش مصنوعی کمونیستی خود معتقد بودند که جمع‌آوری اطلاعات برای «درک فرهنگ و حس انسانی» امری ضروری است (۴). پروژه آنها در سال ۱۹۸۹ با تأسیس انجمن هوش مصنوعی شوروی، درست در لحظه‌ای نهادینه شد که سیستم شوروی در حال فروپاشی بود.

از سال ۱۹۹۰، اینترنت به قلب دنیای فناوری در ایالات متحده تبدیل شد و سرمایه‌گذاران با هیجان و بدون محدودیت، تحقیقات کاربردی را تأمین مالی کردند. این وضعیت تا ترکیدن حباب اینترنت در سال ۲۰۰۰ ادامه داشت که به پایان این دوره انجامید. پس از آن، شرکت‌های دیجیتال تحت فشار حامیان مالی خود، رقابتی را برای سودآوری آغاز کردند که به درآمد از تبلیغات وابسته بود. گوگل مدل کالائی شدن داده‌های شخصی را توسعه داد و با ارائه خدمات رایگان، توانست انبوهی از اطلاعات کاربران را جمع‌آوری کند. سپس این داده‌ها به عنوان ماده خامی برای پیش‌بینی و هدایت رفتار کاربران استفاده می‌شدند. در نتیجه، موج جدید هوش مصنوعی در چارچوب سرمایه‌داری پایشی (نظارتی و مراقبتی) گسترش یافت، که بر پایه‌ی جمع‌آوری و تحلیل داده‌های گسترده بنا شده بود(۵).

در اوایل دهه ۲۰۱۰، هوش مصنوعی با برگزاری مسابقه سالانه تشخیص تصویر ImageNet، بر اساس پایگاه داده‌های ناشناس و ایجاد پایگاه داده‌های گسترده تثبیت شد. این تولید انبوه بخشی از کار طولانی مدتی بود که در سال ۲۰۰۶ توسط محقق فی-فی لی انجام شد. این پژوهشگر بر خلاف بسیاری از همکارانش، کارش را نه بر روی الگوریتم‌ها و قدرت محاسباتی، بلکه بر روی داده‌ها متمرکز کرد: منبعی ضروری برای تحقق پیش‌بینی پیوندگرا که توسعه اینترنت با هدف تجاری، امکان استخراج گسترده داده‌‌ها را فراهم کرده بود.

از سال ۲۰۱۱، هوش مصنوعی به بخشی جدایی‌ناپذیر از فناوری‌ای تبدیل شد که به سرمایه‌داری وابسته و در خدمت آن بود. غول‌های فناوری، همراه با ارتش حاشیه‌نویسان در سراسر جهان، توسط پلتفرم‌هایی مانند Amazon Mechanical Turk بسیج شدند و برای پایگاه‌ها، داده‌ها را پالایش می‌کردند.

نسخه ۲۰۱۲ مسابقه ImageNet زمینه‌ساز ظهور «یادگیری ژرف» (deep learning) شد، که به عنوان جاه‌طلبانه‌ترین اختراع پیوندگرایان شناخته می‌شد که تا آن زمان عملاً دست‌نیافتنی به نظر می‌آمد. تحولات اخیر آن، مانند ChatGPT، هزاران کارگر کنیایی را با دستمزدی کمتر از ۲ دلار در ساعت، برای حاشیه‌نویسی تصاویر و متون به خدمت گرفته است و بر استثمار نیروی کار در بستر فناوری‌های مدرن دامن می‌زند.

فضیلت اخلاقی در آغاز و تسلط سوددهی به دنبال آن

در تخیل جمعی این ایده جا افتاده است که پیشرفت هوش مصنوعی وابسته به افزایش تقریبا بی‌نهایت پارامترها و بنابراین تابع ظرفیت‌های محاسباتی است که کل سیستم تولید را به سمت یک جهش به جلو پیش می برد.

سازمان غیرانتفاعی OpenAI در سال ۲۰۱۵ با مشارکت آقایان پیتر تیل و ایلان ماسک تأسیس شدکه هردو چهره‌های سرمایه‌داری لجام گسیخته هستند. این سازمان همانطور که در وب سایت خود ادعا کرده بود، در نظر داشت «هوش مصنوعی عمومی و ایمن» را ترویج و توسعه دهد و «مزایای آن را با کل جهان به اشتراک بگذارد»، (۶). برای اطمینان از انطباق با این برنامه، OpenAI دارای یک هیئت مدیره علمی متشکل از چهره‌های شناخته شده در تحقیقات اخلاقی در سیستم‌های هوش مصنوعی، مانند خانم هلن تونر بود. چهار سال بعد، این سازمان به یک شرکت تجاری با سقف سودی محدود شده - صد برابر سرمایه اولیه- تبدیل شد. به دانشمندان انسان‌دوست اولیه، مهندسان جاه‌طلبی پیوستند که دلیل حضورشان فقط شراکت در سهام شرکت بود. در سال ۲۰۲۰ OpenAI، OpenAI GPT-3 را راه‌اندازی کرد و در عین حال پروژه‌های مهم «اخلاقی» مانند «سوپرهمترازی» (همسویی سیستم‌های هوش مصنوعی بر اساس اهداف و اصول تعریف‌شده توسط انسان) را حفظ کرد که توسط آقایان ایلیا سوتسکور و یان لیکه هدایت می‌شد.

نابسامانی نوامبر ۲۰۲۳ موجب تغییر مسیر عمده‌ای شد: هیئت مدیره حذف و الزامات تجاری بر شرکت حاکم شد. در سپتامبر ۲۰۲۴، OpenAI سرانجام محدودیت سقف سودآوری خود را لغو کرد: بدین ترتیب این شرکت دیگر هوش مصنوعی را نه یک علم اساسی در خدمت بشریت، بلکه محصولی تجاری می‌بیند که باید آن را در سریع‌ترین زمان ممکن وارد بازار کرد.

هوش مصنوعی با وعده رشد آگاهی و وجدان در یک ماشین، رویاهای پرومته‌ای و درعین حال ابهامات لغوی آن – از جمله در مورد نامش - توجه جهان سیاسی را به خود جلب کرد. پتانسیل اقتدارگرایانه و سرکوبگر آن به‌ویژه ظرفیتش برای نظارت بر افراد، مورد توجه قدرت‌ها قرار گرفت. در اوایل دهه ۱۹۶۰، نهادهای اداره‌کننده سازمان اطلاعات مرکزی آمریکا (سیا) فناوری‌هایی را برای تجزیه و تحلیل خودکار اطلاعات پیش‌بینی کردند که جمع‌آوری و متمرکز کردن داده‌های شخصی را توجیه می‌کرد(۷). با توجه به نقش «تکینگی‌فناوری»** در کنترل اجتماعی (استفاده از فناوری به عنوان ابزار کنترل اجتماعی)، ایالات متحده مانند چین خیلی زود به سرمایه‌گذاری در تحقیقات ریاضی، توسعه زیرساخت‌های دیجیتال و استقرار دستگاه‌های جمع‌آوری داده در مقیاس بزرگ پرداخت.

این توجه مشترک به توسعه فناوری‌های نظارتی و جمع‌آوری داده‌ها نشان‌دهنده اهمیت روزافزون هوش مصنوعی در شکل‌دهی به روابط اجتماعی و سیاسی در سطح جهانی است.

تخیلات مربوط به ماشین‌های خودکار می‌توانستند ابعاد مثبتی نیز داشته باشند، از جمله مفهوم «دموکراسی دیجیتال». یعنی شکل‌گیری دموکراسی سایبری مبتنی بر سیستم‌های اطلاعاتی فعال و مشارکت‌محور برای دربرگرفتن شهروندان. اما واقعیت نشان داد که رویاهای آزادی‌خواهانه اولیه در میانه اقیانوس داده‌ها شکل یک «حکومت الگوریتمی» را به خود گرفت.

به اعتقاد حقوق‌دان آنتوانت رووروی و پروفسور فلسفه سیاسی توماس برنز، این نوع حکمرانی به شکلی از کلی‌سازی منجر می‌شود که «امر واقعی» را در حلقه آمار محبوس کرده و نیروی عینی آن را تا حد یک احتمال کاهش می‌دهد (۸). در این شرایط، وجود یک «هوش مصنوعی سایبری دموکراتیک» با حکومتی که بر اساس جمع‌آوری داده‌ها و تسلط و هدایت رفتار افراد عمل می‌کند، عملاً غیرممکن به نظر می‌رسد.

این مسئله به چالش‌های بنیادینی در مفاهیم آزادی، شفافیت و مشارکت در دموکراسی‌های دیجیتال اشاره می‌کند و نشان‌دهنده نواقص موجود در پیوند دادن فناوری با اصول انسانی و اجتماعی است. در واقع، تحولاتی که انتظار می‌رفت به دموکراسی شکل دهد، به سمت کنترل الگوریتمی و عدم شفافیت در رفتارهای انسانی پیش رفته است.

سیستم‌های پردازش آماری - و به‌ویژه هوش مصنوعی - به ما اجازه نمی‌دهند که راه‌حلی جایگزین برای نظم اقتصادی و اجتماعی که آنها را ایجاد کرده، تصور کنیم. اثبات اشتباه «داده‌ها» و پیش‌بینی‌های آماری آن‌ها، دور شدن از جبر الگوریتمی و جهت‌گیری مجدد هوش مصنوعی، نیازمند یک گام اولیه است: روشنگری در مورد غلط بودن رابطه این فناوری‌ها و بازیگرانی که آن‌ها را تبلیغ می‌کنند با هوش و با جامعه.

* در اقتصاد نئوکلاسیک فرض بر «عقلانیت عوامل اقتصادی» است. انسان معرفی شده از سوی نئوکلاسیک‌ها یک انسان خیالی است که از واقعیت‌های بارز انسانی و اجتماعی‌ کاملاً جدا است.

** تکینگی فناوری فرضیه‌ای که پیش‌بینی می‌کند شتاب در فناوری در نهایت باعث می‌شود هوش مصنوعی از هوش بشر پیشی بگیرد و منجر به تغییرات شگرف یا حتی پایان تمدن بشری بشود.

۱- Jonnie Penn, « Animo nullius : On AI’s origin story and a data colonial doctrine of discovery », BJHS Themes, vol. 8, Cambridge, 2023.

۲- Jonnie Penn, « Animo nullius : On AI’s origin story and a data colonial doctrine of discovery », BJHS Themes, vol. 8, Cambridge, 2023.

۳- Mathieu Triclot, « La notion d’information dans la cybernétique », journée « Histoire et didactique des sciences », université Lyon-I, 6 décembre 2004.

۴- Olessia Kirtchik, « The Soviet scientific programme on AI : If a machine cannot “think”, can it “control” ? », BJHS Themes, vol. 8, 2023.

۵- Lire Shoshana Zuboff, « Un capitalisme de surveillance », Le Monde diplomatique, janvier 2019.

۶- « About » sur le site d’OpenAI.

۷-مقاله « چگونه نظارت دولتی شکست خورد»، لوموند دیپلماتیک ژوئن ۲۰۲۴ https://ir.mondediplo.com/2024/06/article4925.html

۸- Antoinette Rouvroy et Thomas Berns, « Gouvernementalité algorithmique et perspectives d’émancipation », Réseaux, n° 177, Paris, 2013.

 

لوموند