نویسنده Victor Chaix، Auguste Lehuger & Zako Sapey-Triomphe
برگردان شروين احمدي
در سال ۱۹۵۶، شهر دارتموث آمریکا میزبان گروهی از ریاضیدانان برای پروژه تحقیقاتی تابستانی دارتموث در مورد هوش مصنوعی (Dartmouth Summer Research Project on Artificial Intelligence) شد، یک سمینار تحقیقاتی که استفاده از عبارت «هوش مصنوعی» (AI) را برای سیستمهای شبیهسازی ذهن انسان متداول کرد.
جان مک کارتی با تحمیل این فرمول خود را از نوربرت وینر و متخصصان سایبرنتیک متمایز ساخت، کسانی که در آن زمان منابع اختصاص داده شده به اتوماسیون فرآیندهای صنعتی را حول خود متمرکز کرده بودند(۱). طرفداران کنفرانس دارتموث که بر خلاف متخصصان سایبرنتیک، به نظرات فیلسوفان باستان و علوم زیستی آگاهی داشتند، در عوض بر نظریه اقتصادی لیبرال تکیه کردند. آنها برای نزدیک شدن به رشته مطالعاتی جدید خود از همان ابتدا چنین فرض کردند که «ذهن چیزی بسامان است که در درون مغز فرد زندگی میکند و از یک منطق ضمنی و معتبر پیروی میکند، و میتوان آن را با تفکر رایانشی مشتقه از مشاهدهی رویدادهای اجتماعی به طور قانعکنندهای مدلسازی نمود»(۲).
روشهای هوش مصنوعی از نگرش ارتدکسی به اقتصاد* الهام گرفته شدهاند، بهویژه از طریق برونیابی و تعمیم رفتار همه انسانها بر اساس الگوهای رفتاری یک فرد منطقی و محاسبهگر. هربرت سایمون، اقتصاددان و یکی از پیشگامان این حوزه، از مطالعات آدام اسمیت در زمینه فرآیندهای مدیریت و تصمیمگیری بهره گرفت تا «پارادایم نمادین» هوش مصنوعی را شکل دهد: این پارادایم به طراحی سیستمهایی اشاره دارد که مجموعهای از قوانین تصمیمگیری تدوینشده توسط متخصصان را ترکیب میکند. فرانک روزنبلات، روانشناس، با الهام از نظرات فردریش هایک در مورد ساختارهای بازار که غیرمتمرکز و خودانگیختهاند، سیستمی را طراحی کرد که بهعنوان جد «شبکههای عصبی مصنوعی» و تجسم «پارادایم پیوندگرا» شناخته میشود. بر اساس این مدل، هوش مصنوعی باید نظم طبیعیای را به ارمغان بیاورد که قادر به سازماندهی آماری جهان به شیوهای کارآمدتر، کاربردیتر و منطقیتر از افراد و نهادهای جمعی مانند دولتها باشد.
این دو مفهوم، که اغلب در علم کامپیوتر با هم مخالف هستند، در واقع از نوع همان اصول و بدیهیات اولیه (axiome) فرض میشوند. همانطور که فیلسوف متیو تریکلوت استدلال میکند، این مفهوم مبهم «اطلاعات» است که امکان تشابه بین چیزهایی بسیار دور از هم مانند ماشینها و موجودات زنده، رایانهها و مغز، اقتصاد سیاسی و متافیزیک را موجب شده است. چنین تشابهاتی همچنین با گفتمان متخصصان سایبرنتیک و پیشگامان علوم کامپیوتر، مانند جان فون نویمان، در تضاد است. او معتقد بود که «پردازش اطلاعاتی که در مغز اتفاق میافتد عمیقاً با آنچه در رایانه اتفاق میافتد متفاوت است(۳)».
آقایان یوشوا بنجیو(Yoshua Bengio) و یان لکان(Yann Le Cun)، دو چهرهی مطرح در حوزه هوش مصنوعی پیوندگرا هستند که در سال ۲۰۱۸ جایزه تورینگ را دریافت کردند. بنجیو استاد رشته علوم کامپیوتر در دانشگاه مونترال است و بر لزوم اتخاذ مقررات و همچنین خطرات ناشی از توسعه نامحدود هوش مصنوعی تأکید میکند. در مقابل، لکان که مسئول تحقیقات هوش مصنوعی در متا (فیس بوک) و معاون رئیس این شرکت است، نگرانی کمتری درباره توسعه هوش مصنوعی دارد، احتمالا به دلیل منافع تجاری گروه خود. اگرچه دیدگاههای آنها اغلب در تضاد با یکدیگر قرار دارد، هر دو رویکردی رایانشی و فردی به هوش انسانی دارند که ریشه در تفکر مککارتی و روزنبلات دارد.
هوش مصنوعی که ما امروز میشناسیم، در بطن چالشهای اقتصادی، فکری، نظامی و حتی فلسفی قرار دارد و غالباً به عنوان پیامد عظیم و گریزناپذیر نبوغ بشری معرفی میشود، تا فرزند منحط فردگرایی از نوع آمریکاییاش.
در پایان دهه ۱۹۸۰، تحقیقات در زمینه هوش مصنوعی به خواب زمستانی طولانی فرو رفت. حتی خود اصطلاح «هوش مصنوعی» سرمایهداران را دلسرد میکرد و به ناچار نام «الگوریتم پیشرفته» را برآن نهادند. همزمان در اتحاد جماهیر شوروی، دانشمندان رویکرد متفاوتی را توسعه دادند. آنها با تکیه بر پیشفرضهای ایدئولوژیکیِ مختلف از همکاران غربی خود، ایده ماشین فکری که بتواند عقلانیت انسان را تقلید کند، رد کردند و بر این عقیده بودند که هوش انسانی به عنوان یک ظرفیت اجتماعی و فرهنگی نتیجه تعاملات گسترده بین افراد است. مککارتی و همکارانش به هوش مصنوعی از منظر ایدئولوژی بازار آزاد و علوم شناختی نگریسته و سعی داشتند تا شناختهای فردی را تقلید و بازسازی کنند. درحالیکه هوش مصنوعی «شوروی» برعکس به دنبال بازتولید هوش برآمده از ساختارهای کلانی بود که درک آنها برای انسان بسیار پیچیده است. این دو نگرش در پایان راه به هم رسیدند: سرمایهداری برای توسعه هوش مصنوعی آمریکایی و پیوندگرا نیاز به جمعآوری گسترده دادهها داشت، و شورویها برای هوش مصنوعی کمونیستی خود معتقد بودند که جمعآوری اطلاعات برای «درک فرهنگ و حس انسانی» امری ضروری است (۴). پروژه آنها در سال ۱۹۸۹ با تأسیس انجمن هوش مصنوعی شوروی، درست در لحظهای نهادینه شد که سیستم شوروی در حال فروپاشی بود.
از سال ۱۹۹۰، اینترنت به قلب دنیای فناوری در ایالات متحده تبدیل شد و سرمایهگذاران با هیجان و بدون محدودیت، تحقیقات کاربردی را تأمین مالی کردند. این وضعیت تا ترکیدن حباب اینترنت در سال ۲۰۰۰ ادامه داشت که به پایان این دوره انجامید. پس از آن، شرکتهای دیجیتال تحت فشار حامیان مالی خود، رقابتی را برای سودآوری آغاز کردند که به درآمد از تبلیغات وابسته بود. گوگل مدل کالائی شدن دادههای شخصی را توسعه داد و با ارائه خدمات رایگان، توانست انبوهی از اطلاعات کاربران را جمعآوری کند. سپس این دادهها به عنوان ماده خامی برای پیشبینی و هدایت رفتار کاربران استفاده میشدند. در نتیجه، موج جدید هوش مصنوعی در چارچوب سرمایهداری پایشی (نظارتی و مراقبتی) گسترش یافت، که بر پایهی جمعآوری و تحلیل دادههای گسترده بنا شده بود(۵).
در اوایل دهه ۲۰۱۰، هوش مصنوعی با برگزاری مسابقه سالانه تشخیص تصویر ImageNet، بر اساس پایگاه دادههای ناشناس و ایجاد پایگاه دادههای گسترده تثبیت شد. این تولید انبوه بخشی از کار طولانی مدتی بود که در سال ۲۰۰۶ توسط محقق فی-فی لی انجام شد. این پژوهشگر بر خلاف بسیاری از همکارانش، کارش را نه بر روی الگوریتمها و قدرت محاسباتی، بلکه بر روی دادهها متمرکز کرد: منبعی ضروری برای تحقق پیشبینی پیوندگرا که توسعه اینترنت با هدف تجاری، امکان استخراج گسترده دادهها را فراهم کرده بود.
از سال ۲۰۱۱، هوش مصنوعی به بخشی جداییناپذیر از فناوریای تبدیل شد که به سرمایهداری وابسته و در خدمت آن بود. غولهای فناوری، همراه با ارتش حاشیهنویسان در سراسر جهان، توسط پلتفرمهایی مانند Amazon Mechanical Turk بسیج شدند و برای پایگاهها، دادهها را پالایش میکردند.
نسخه ۲۰۱۲ مسابقه ImageNet زمینهساز ظهور «یادگیری ژرف» (deep learning) شد، که به عنوان جاهطلبانهترین اختراع پیوندگرایان شناخته میشد که تا آن زمان عملاً دستنیافتنی به نظر میآمد. تحولات اخیر آن، مانند ChatGPT، هزاران کارگر کنیایی را با دستمزدی کمتر از ۲ دلار در ساعت، برای حاشیهنویسی تصاویر و متون به خدمت گرفته است و بر استثمار نیروی کار در بستر فناوریهای مدرن دامن میزند.
فضیلت اخلاقی در آغاز و تسلط سوددهی به دنبال آن
در تخیل جمعی این ایده جا افتاده است که پیشرفت هوش مصنوعی وابسته به افزایش تقریبا بینهایت پارامترها و بنابراین تابع ظرفیتهای محاسباتی است که کل سیستم تولید را به سمت یک جهش به جلو پیش می برد.
سازمان غیرانتفاعی OpenAI در سال ۲۰۱۵ با مشارکت آقایان پیتر تیل و ایلان ماسک تأسیس شدکه هردو چهرههای سرمایهداری لجام گسیخته هستند. این سازمان همانطور که در وب سایت خود ادعا کرده بود، در نظر داشت «هوش مصنوعی عمومی و ایمن» را ترویج و توسعه دهد و «مزایای آن را با کل جهان به اشتراک بگذارد»، (۶). برای اطمینان از انطباق با این برنامه، OpenAI دارای یک هیئت مدیره علمی متشکل از چهرههای شناخته شده در تحقیقات اخلاقی در سیستمهای هوش مصنوعی، مانند خانم هلن تونر بود. چهار سال بعد، این سازمان به یک شرکت تجاری با سقف سودی محدود شده - صد برابر سرمایه اولیه- تبدیل شد. به دانشمندان انساندوست اولیه، مهندسان جاهطلبی پیوستند که دلیل حضورشان فقط شراکت در سهام شرکت بود. در سال ۲۰۲۰ OpenAI، OpenAI GPT-3 را راهاندازی کرد و در عین حال پروژههای مهم «اخلاقی» مانند «سوپرهمترازی» (همسویی سیستمهای هوش مصنوعی بر اساس اهداف و اصول تعریفشده توسط انسان) را حفظ کرد که توسط آقایان ایلیا سوتسکور و یان لیکه هدایت میشد.
نابسامانی نوامبر ۲۰۲۳ موجب تغییر مسیر عمدهای شد: هیئت مدیره حذف و الزامات تجاری بر شرکت حاکم شد. در سپتامبر ۲۰۲۴، OpenAI سرانجام محدودیت سقف سودآوری خود را لغو کرد: بدین ترتیب این شرکت دیگر هوش مصنوعی را نه یک علم اساسی در خدمت بشریت، بلکه محصولی تجاری میبیند که باید آن را در سریعترین زمان ممکن وارد بازار کرد.
هوش مصنوعی با وعده رشد آگاهی و وجدان در یک ماشین، رویاهای پرومتهای و درعین حال ابهامات لغوی آن – از جمله در مورد نامش - توجه جهان سیاسی را به خود جلب کرد. پتانسیل اقتدارگرایانه و سرکوبگر آن بهویژه ظرفیتش برای نظارت بر افراد، مورد توجه قدرتها قرار گرفت. در اوایل دهه ۱۹۶۰، نهادهای ادارهکننده سازمان اطلاعات مرکزی آمریکا (سیا) فناوریهایی را برای تجزیه و تحلیل خودکار اطلاعات پیشبینی کردند که جمعآوری و متمرکز کردن دادههای شخصی را توجیه میکرد(۷). با توجه به نقش «تکینگیفناوری»** در کنترل اجتماعی (استفاده از فناوری به عنوان ابزار کنترل اجتماعی)، ایالات متحده مانند چین خیلی زود به سرمایهگذاری در تحقیقات ریاضی، توسعه زیرساختهای دیجیتال و استقرار دستگاههای جمعآوری داده در مقیاس بزرگ پرداخت.
این توجه مشترک به توسعه فناوریهای نظارتی و جمعآوری دادهها نشاندهنده اهمیت روزافزون هوش مصنوعی در شکلدهی به روابط اجتماعی و سیاسی در سطح جهانی است.
تخیلات مربوط به ماشینهای خودکار میتوانستند ابعاد مثبتی نیز داشته باشند، از جمله مفهوم «دموکراسی دیجیتال». یعنی شکلگیری دموکراسی سایبری مبتنی بر سیستمهای اطلاعاتی فعال و مشارکتمحور برای دربرگرفتن شهروندان. اما واقعیت نشان داد که رویاهای آزادیخواهانه اولیه در میانه اقیانوس دادهها شکل یک «حکومت الگوریتمی» را به خود گرفت.
به اعتقاد حقوقدان آنتوانت رووروی و پروفسور فلسفه سیاسی توماس برنز، این نوع حکمرانی به شکلی از کلیسازی منجر میشود که «امر واقعی» را در حلقه آمار محبوس کرده و نیروی عینی آن را تا حد یک احتمال کاهش میدهد (۸). در این شرایط، وجود یک «هوش مصنوعی سایبری دموکراتیک» با حکومتی که بر اساس جمعآوری دادهها و تسلط و هدایت رفتار افراد عمل میکند، عملاً غیرممکن به نظر میرسد.
این مسئله به چالشهای بنیادینی در مفاهیم آزادی، شفافیت و مشارکت در دموکراسیهای دیجیتال اشاره میکند و نشاندهنده نواقص موجود در پیوند دادن فناوری با اصول انسانی و اجتماعی است. در واقع، تحولاتی که انتظار میرفت به دموکراسی شکل دهد، به سمت کنترل الگوریتمی و عدم شفافیت در رفتارهای انسانی پیش رفته است.
سیستمهای پردازش آماری - و بهویژه هوش مصنوعی - به ما اجازه نمیدهند که راهحلی جایگزین برای نظم اقتصادی و اجتماعی که آنها را ایجاد کرده، تصور کنیم. اثبات اشتباه «دادهها» و پیشبینیهای آماری آنها، دور شدن از جبر الگوریتمی و جهتگیری مجدد هوش مصنوعی، نیازمند یک گام اولیه است: روشنگری در مورد غلط بودن رابطه این فناوریها و بازیگرانی که آنها را تبلیغ میکنند با هوش و با جامعه.
* در اقتصاد نئوکلاسیک فرض بر «عقلانیت عوامل اقتصادی» است. انسان معرفی شده از سوی نئوکلاسیکها یک انسان خیالی است که از واقعیتهای بارز انسانی و اجتماعی کاملاً جدا است.
** تکینگی فناوری فرضیهای که پیشبینی میکند شتاب در فناوری در نهایت باعث میشود هوش مصنوعی از هوش بشر پیشی بگیرد و منجر به تغییرات شگرف یا حتی پایان تمدن بشری بشود.
۱- Jonnie Penn, « Animo nullius : On AI’s origin story and a data colonial doctrine of discovery », BJHS Themes, vol. 8, Cambridge, 2023.
۲- Jonnie Penn, « Animo nullius : On AI’s origin story and a data colonial doctrine of discovery », BJHS Themes, vol. 8, Cambridge, 2023.
۳- Mathieu Triclot, « La notion d’information dans la cybernétique », journée « Histoire et didactique des sciences », université Lyon-I, 6 décembre 2004.
۴- Olessia Kirtchik, « The Soviet scientific programme on AI : If a machine cannot “think”, can it “control” ? », BJHS Themes, vol. 8, 2023.
۵- Lire Shoshana Zuboff, « Un capitalisme de surveillance », Le Monde diplomatique, janvier 2019.
۶- « About » sur le site d’OpenAI.
۷-مقاله « چگونه نظارت دولتی شکست خورد»، لوموند دیپلماتیک ژوئن ۲۰۲۴ https://ir.mondediplo.com/2024/06/article4925.html
۸- Antoinette Rouvroy et Thomas Berns, « Gouvernementalité algorithmique et perspectives d’émancipation », Réseaux, n° 177, Paris, 2013.
لوموند