نشریه دیپلمات: «آنچه دموکراسی‌ها درباره هوش مصنوعی چین اشتباه می‌کنند» | ۲۶ تیر ۱۴۰۴

نگرانی اصلی دموکراسی‌ها نباید عقب ماندن در مسابقه ساخت مدل‌های هوش مصنوعی باشد، بلکه باید فقدان یک استراتژی منسجم برای مقابله با خطرات ناشی از نفوذ فناوری چین باشد.

⏳ مدت زمان مطالعه: ۶ دقیقه | ✏️ ناشر/نویسنده: دیپلمات/کای-شن هوانگ | 📅 تاریخ: ۲۱.Jun.2025 / خرداد ۱۴۰۴

⚠️ هشدار: بازنشر این مقاله صرفاً دیدگاه‌های نویسنده و منبع اصلی را منعکس می‌کند و به معنای تأیید یا پذیرش مسئولیت دیدگاه‌های مطرح‌شده نیست.


دموکراسی‌هایی مانند تایوان باید کمتر نگران عقب ماندن از پیشرفت هوش مصنوعی چین باشند و بیشتر نگران خلاء استراتژیکی باشند که فناوری چین آشکار می‌سازد.

دموکراسی‌ها به طور فزاینده‌ای نگران ظهور هوش مصنوعی چین هستند، اما همیشه در مورد اینکه دقیقاً چه چیزی در خطر است، واضح نیستند. ظهور ناگهانی DeepSeek در اوایل سال جاری، محبوب‌ترین مدل متن‌باز چین تا به امروز، این موضوع را به سطح آورد. اظهارنظرهای غربی از آن زمان بین هشدار در مورد پیشرفت سریع پکن و یک باور پایدار مبنی بر اینکه هنوز عقب است، در نوسان بوده است. به عنوان مثال، OpenAI نشان می‌دهد که چین به سرعت در حال کاهش شکاف است، حتی اگر هنوز پیشرو نباشد. جنسن هوانگ، مدیرعامل انویدیا، به صراحت اعلام کرد: چین «عقب نیست.» اظهارات او بیش از به چالش کشیدن یک روایت فنی بود. این یک ناراحتی فزاینده را تشدید کرد که کشورهای کمی استراتژی یا آمادگی برای آنچه ردپای در حال گسترش هوش مصنوعی چین ممکن است به معنای آن باشد، دارند.

اینجاست که بخش بزرگی از هشدارهای کنونی به بیراهه می‌رود. اختلالی که DeepSeek نشان می‌دهد لزوماً در پیشی گرفتن از مدل‌های پیشگام غربی نیست، بلکه در نشان دادن این است که چین می‌تواند یک اکوسیستم هوش مصنوعی تجاری قابل دوام را حفظ کند، که قادر به تولید خدماتی است که در سطح جهانی هم از نظر عملکرد و هم از نظر قیمت رقابتی هستند. با این حال، اضطراب عمومی همچنان بر ترس از عقب ماندن در یک مسابقه مدل متمرکز است، در حالی که یک نقطه کور فوری‌تر را از دست می‌دهد: فقدان یک استراتژی منسجم برای مقابله با خطرات سیستمی ناشی از استقرار شتابان خدمات هوش مصنوعی چین در جوامع دموکراتیک.

لحظه هوش مصنوعی چینی تایوان

هیچ جا این ترس از عقب ماندن ملموس‌تر از تایوان نیست. DeepSeek یک زنگ بیدارباش برای سیاست‌گذاران تایوانی بود. این امر یک بحث ملی را نه تنها در مورد مقیاس پیشرفت هوش مصنوعی چین، بلکه در مورد تلاش‌های کند و پراکنده خود تایوان برای توسعه یک مدل زبان بومی با مقیاس یا دید رقابتی، به راه انداخت. سؤال «چرا تایوان نمی‌تواند یک DeepSeek برای خود داشته باشد؟» به سرعت به یک منبع فشار سیاسی و خودکاوی نهادی تبدیل شد.

دلیل اصلی اینکه این اضطراب به این سرعت ریشه دوانده این است که یک هدف داخلی پیدا کرده است. TAIDE، ابتکار تحت حمایت دولت تایوان برای ساخت یک مدل زبان که منعکس‌کننده ویژگی‌های زبانی و فرهنگی آن است، به یک نقطه مقایسه نامطلوب تبدیل شد. مقیاس و باز بودن DeepSeek آن را به یک آینه تبدیل کرد، محدودیت‌های TAIDE را آشکار ساخت و آن را به کانون توجه نظارت عمومی کشاند.

در فوریه ۲۰۲۵، تنها چند هفته پس از اینکه R1 DeepSeek سرفصل خبرها شد، TAIDE یک مدل به‌روز شده، Llama 3.1-TAIDE-LX-8B-Chat، با رمزگشایی بهبود یافته برای چینی سنتی و طول زمینه گسترش‌یافته ۱۳۱ هزار توکن منتشر کرد. اما این ارتقاءها تأثیر چندانی در تغییر روایت نداشتند. در برابر ۶۷۱ میلیارد پارامتر DeepSeek R1، وزن‌های کاملاً باز تحت مجوز MIT و به رسمیت شناختن فوری جهانی، TAIDE کمتر شبیه یک پیشرفت حاکمیتی و بیشتر شبیه یک نمونه اولیه دیرهنگام به نظر می‌رسید: صادق در جاه‌طلبی، متواضع در ارائه و بی‌سروصدا تحت‌الشعاع قرار گرفته قبل از اینکه بتواند وارد رینگ شود.

نظارت با یک تحقیق رسمی توسط کنترل یوان تایوان، نهاد قانون اساسی مسئول نظارت بر دولت، عمیق‌تر شد. در آوریل ۲۰۲۵، این نهاد به این نتیجه رسید که TAIDE از هماهنگی ضعیف، دسترسی ناکافی به داده‌ها و شکست‌های حاکمیتی سیستمی رنج می‌برد. از ۵۸ مجموعه داده دولتی که برای آموزش جمع‌آوری شده بود، تنها دو مورد از طریق پلتفرم داده‌های باز ملی کاملاً قابل دسترسی بودند. کنترل یوان، وزارت امور دیجیتال را به دلیل شکست در مأموریت حاکمیت داده خود مقصر دانست و از یوان اجرایی (کابینه تایوان) به دلیل نادیده گرفتن هماهنگی بین سازمانی انتقاد کرد.

آنچه قرار بود نشانه حاکمیت هوش مصنوعی باشد، در عوض یک دستگاه دولتی را آشکار کرده بود که برای تأمین همان داده‌هایی که مدل ملی‌اش به آن وابسته بود، آماده نبود. TAIDE به یک مطالعه موردی در برنامه‌ریزی ناهماهنگ و جاه‌طلبی نمادین تبدیل شد که در هزارتوی ابهامات قانونی، فرآیندهای پراکنده و ظرفیت نهادی توسعه‌نیافته گرفتار شده بود.

ناسیونالیسم فناوری نابجا

پویایی‌هایی که پیرامون DeepSeek و TAIDE رخ داد، نمونه‌ای از یک آیین سیاسی است که اکنون به روال تبدیل شده است: اضطراب عقب ماندن به عنوان یک تلاش میهن‌پرستانه برای «هوش مصنوعی حاکمیتی» بازبسته‌بندی می‌شود. اما این انگیزه اغلب لفاظی را جایگزین استراتژی می‌کند و سؤالات سیاستی اساسی‌تری را به طور آشکار دست‌نخورده باقی می‌گذارد.

این وضعیت قبلاً پاسخ‌های نهادی را شکل داده است. ادعاهای تایوان در مورد توسعه هوش مصنوعی «حاکمیتی» اغلب یک واقعیت متواضعانه‌تر را پنهان می‌کند: تنظیم دقیق مدل‌های پیشرفته خارجی مانند LLaMA به جای ساختن سیستم‌های واقعاً بومی. هنگامی که DeepSeek سرفصل خبرها شد، اولین اقدام دولت سرمایه‌گذاری در زیرساخت‌های اصلی یا قابلیت‌های بلندمدت نبود، بلکه به سادگی ممنوعیت استفاده از این مدل در تمام آژانس‌های دولتی بود. جذابیت آن آشکار است. گرد آمدن حول یک شعار وجودی آسان‌تر از تعهد به یک برنامه اصلاحی غیرجذاب سیاسی است. اما وضوح در سطح لفاظی تمایل به پنهان کردن سردرگمی در سطح استراتژی دارد. همچنین سؤالات سیاستی سخت‌تری را خاموش می‌کند، از آن نوع که به بیش از شعار نیاز دارند.

به طور خاص، مشکل این روایت ناسیونالیستی این است که تایوان را به مسیری متعهد می‌کند که هم بیش از حد بلندپروازانه و هم بیش از حد محدود است.

بیش از حد بلندپروازانه، زیرا موفقیت را با عباراتی که توسط ابرقدرت‌ها استفاده می‌شود، تعریف می‌کند. ساختن یک مدل زبان حاکمیتی به عنوان یک ضرورت ملی تلقی می‌شود، با مقایسه‌های ضمنی با ایالات متحده و چین. به نظر می‌رسد یک باور آرام وجود دارد که مهارت تایوان در ساخت تراشه، آن را مستحق موفقیت در ساخت مدل می‌کند – گویی فاب‌ها می‌توانند جایگزین مدل‌های پایه شوند. با این حال، تایوان فاقد تعهد به مقیاس مورد نیاز برای مطابقت با این معیارها است، چه در داده‌های آموزشی و چه در کانال‌های استقرار جهانی. این کشور همچنان با بودجه عمومی محدود و یک محیط سیاستی پراکنده فعالیت می‌کند. هیچ‌کدام برای حمایت از توسعه هوش مصنوعی بلندمدت و پرمخاطره مناسب نیستند.

این رویکرد همزمان بیش از حد محدود است، زیرا عملکرد را با نمایندگی فرهنگی معامله می‌کند. قاب‌بندی مدل به عنوان محملی برای فرهنگ ملی ممکن است از نظر سیاسی خوشایند باشد، اما انتظاراتی را ایجاد می‌کند که برآورده کردن آنها دشوار است و بازارهایی که به سختی وجود دارند. سیستمی که برای انعکاس ویژگی‌های فرهنگی ساخته شده ممکن است سرمایه سیاسی کسب کند، اما این به ندرت به سودمندی در دنیای واقعی تبدیل می‌شود. این در جایی که اهمیت دارد، عمل نخواهد کرد: استفاده تجاری، یکپارچگی فرامرزی یا معیارهای فنی.

در بهترین حالت، نتیجه یک مدلی خواهد بود که به انسجام سیاسی دست می‌یابد اما ارتباط عملی کمی ارائه می‌دهد. سیستمی که نتواند رقابت کند، همچنان شکست خواهد خورد، هم در داخل و هم در خارج، صرف نظر از اینکه چقدر صادقانه تلاش می‌کند تا ویژگی‌های ملی را رمزگذاری کند، با فرض اینکه چنین ویژگی‌هایی اصلاً قابل عملیاتی شدن باشند.

نتیجه یک دستور کار سیاستی تحریف‌شده است. توجه سیاسی و نهادی بر ارزش نمادین یک مدل شاخص متمرکز می‌شود، در حالی که ستون‌های بنیادی‌تر توسعه پایدار هوش مصنوعی نادیده گرفته می‌شوند. حاکمیت داده، همکاری بین بخشی و طراحی زیرساخت توجه بسیار کمتری دریافت می‌کنند. بنابراین، جاه‌طلبی به جایگزینی تبدیل می‌شود: تلاش برای ادعای مالکیت نمادین، زمان، دید و منابعی را که در غیر این صورت ممکن است از استراتژی‌های هوش مصنوعی کثرت‌گراتر و مقاوم‌تر حمایت کنند، مصرف می‌کند.

مقابله با خلاء استراتژیک

آنچه در تایوان به عنوان یک زیاده‌روی استراتژیک به نظر می‌رسید، در واقع، بخشی از یک الگوی جهانی گسترده‌تر است. در سراسر مناطق از اروپا تا شرق آسیا، شرکت در مسابقه هوش مصنوعی جایگزین برنامه‌ریزی منسجم شده است. دولت‌ها به طور فزاینده‌ای مدل‌های پایه را به عنوان دارایی‌های استراتژیک مشروعیت دیجیتال تلقی می‌کنند. به عنوان مثال، برنامه اقدام قاره هوش مصنوعی اتحادیه اروپا در سال ۲۰۲۵، هم مدل‌های پیشگام و هم مدل‌های منبع‌باز را در مرکز جاه‌طلبی خود برای رهبری در هوش مصنوعی قابل اعتماد قرار می‌دهد.

در این منطق، ساختن یک مدل ملی به بلیطی برای ارتباط ژئوپلیتیکی، سیگنالی از عقب نماندن تبدیل می‌شود. اما این روایت مدل-محور، هر چقدر هم که مرتب باشد، جاه‌طلبی تکنولوژیکی را با قضاوت استراتژیک اشتباه می‌گیرد. برای دموکراسی‌های کوچکتر و متوسط، دنبال کردن هوش مصنوعی پیشگام نه تنها دیر است بلکه اشتباه هدایت شده است. بیشتر آنها فاقد منابع برای توسعه و حفظ مدل‌های پیشرفته در مقیاس بزرگ هستند. بدتر از آن، آنها با خطر انحراف ظرفیت کمیاب به سمت ابتکارات نمایشی به جای تقویت حوزه‌هایی که ممکن است در آنها پیشرو باشند، روبرو هستند. اینها شامل کاربردهای تخصصی، ابزارهای چندزبانه، استقرارهای مدنی یا طراحی اکوسیستم است. تراژدی این نیست که آنها عقب هستند. این است که آنها احتمالاً در مسابقه اشتباهی می‌دوند.

پس، کشورهای دموکراتیک واقعاً باید نگران چه چیزی باشند؟ لزوماً سرعت پیشرفت هوش مصنوعی چین نیست، بلکه خلاء استراتژیکی است که آن را آشکار می‌سازد. تعداد کمی چارچوب‌هایی برای ارزیابی ابزارهای هوش مصنوعی تحت حمایت چین ایجاد کرده‌اند، چه رسد به حاکمیت بر نحوه پذیرش، تطبیق یا تعبیه آن ابزارها در سیستم‌های داخلی.

حتی توسعه‌یافته‌ترین تلاش‌های نظارتی نیز هنوز به طور کامل به این شکاف رسیدگی نکرده‌اند. به عنوان مثال، قانون هوش مصنوعی اتحادیه اروپا یک رویکرد ساختاریافته مبتنی بر ریسک را ارائه می‌دهد که نگرانی‌های عملکردی مانند سوء استفاده، تعصب و شکست سیستمی را پوشش می‌دهد، اما توجه محدودی به منشأ ژئوپلیتیکی سیستم‌های هوش مصنوعی دارد. ریسک زنجیره تأمین و منبع مبدأ، به ویژه در رابطه با خدمات توسعه‌یافته در رژیم‌های غیر دموکراتیک، خارج از محدوده فعلی آن باقی مانده است.

فراتر از کنترل‌های صادراتی

فوریت خلاء استراتژیک زمانی روشن‌تر می‌شود که در نظر بگیریم ردپای هوش مصنوعی چین دیگر به مرزهای خودش محدود نمی‌شود. در داخل، مدل‌هایی مانند DeepSeek قبلاً زیربنای طیف گسترده‌ای از عملکردهای صنعتی و دولتی هستند، از غول‌های انرژی مانند سینوپک و CNOOC گرفته تا مؤسسات مالی مانند ICBC و بانک پس‌انداز پستی. آنها از مدیریت دانش، اتوماسیون خدمات مشتری، تدوین سیاست و تحقیقات داخلی در بخش‌هایی از جمله مراقبت‌های بهداشتی، آموزش، مخابرات و رسانه پشتیبانی می‌کنند. در چین، مدل‌های پایه اکنون به عنوان زیرساخت‌های ضروری عمل می‌کنند تا آزمایش‌های تکنولوژیکی انتزاعی.

تحول مهم‌تر در چیزی است که به دنبال می‌آید. خدمات مشابه اکنون، هم به طور مستقیم و هم غیرمستقیم، از طریق نسخه‌های با وزن باز، یکپارچه‌سازی سازمانی و فروشندگان شخص ثالث، صادر می‌شوند. به نظر می‌رسد پیشنهادات هوش مصنوعی چینی در حال ورود به لحظه تیک‌تاک خود هستند: تغییر از مقیاس داخلی به انتشار جهانی، اغلب بی‌سروصدا و از طریق کانال‌هایی که از آگاهی نظارتی پیشی می‌گیرند. سؤال مهم اکنون این نیست که آیا چین می‌تواند مدل‌های رقابتی بسازد، بلکه این است که آن سیستم‌ها با چه سرعتی و تا چه حد در حال گسترش هستند – و نهادهای دموکراتیک چقدر برای نظارت یا پاسخگویی آماده نیستند.

در تایوان، گسترش DeepSeek قبلاً زنگ‌های خطر را به صدا درآورده است. فراتر از یک دستورالعمل محدود که استفاده از آن را در آژانس‌های دولتی ممنوع می‌کند، هیچ چارچوب جامعی برای حاکمیت بر واردات، کاربرد یا منشأ سیستم‌های هوش مصنوعی تحت حمایت چین وجود ندارد. پذیرش تجاری و بخش خصوصی عمدتاً بدون نظارت باقی مانده است. آگاهی عمومی ناچیز و حتی نقشه‌برداری نهادی کمتری از مدل‌های چینی تغییر نام یافته یا مشتق شده که از طریق یکپارچه‌سازان شخص ثالث یا فروشندگان محلی وارد می‌شوند، وجود دارد. نتیجه یک نقطه کور نظارتی است.

بخش بزرگی از بحث سیاست جهانی هوش مصنوعی امروز همچنان بر کنترل آنچه خارج می‌شود – از طریق محدودیت‌های صادراتی، غربالگری سرمایه‌گذاری خارجی و رژیم‌های صدور مجوز – متمرکز است. توجه بسیار کمتری به آنچه وارد می‌شود، می‌شود. مدل‌ها و خدمات مبتنی بر هوش مصنوعی چینی اکنون با نظارت کمی در سراسر مرزها در گردش هستند. این عدم تعادل، دموکراسی‌ها را از نظر ساختاری در معرض خطر قرار می‌دهد: به خطرات خروجی توجه دارند، اما نسبت به آسیب‌پذیری‌های ورودی کور هستند.

اگر دموکراسی‌ها بخواهند به طور معناداری به ظهور هوش مصنوعی چین پاسخ دهند، پاسخ در تکرار استراتژی توسعه آن یافت نخواهد شد. آنچه مورد نیاز است، ساختن نهادها، هنجارها و ظرفیت فنی برای ارزیابی، حاکمیت و در صورت لزوم، رد سیستم‌هایی است که تاب‌آوری دموکراتیک را تهدید می‌کنند. بدون این، مسابقه مدل یک انحراف است. آزمون واقعی در حاکمیت نهفته است، نه فقط در مهندسی، و در شناخت این است که قدرت نه تنها از نوع هوش مصنوعی که دموکراسی‌ها می‌توانند بسازند، بلکه از آنچه مایل به ورود آن هستند نیز ناشی می‌شود.


پاورقی‌ها:

⚠️ اخطار: محتوای این مقاله صرفاً دیدگاه‌های نویسنده و منبع اصلی را منعکس می‌کند و مسئولیت آن بر عهده نویسنده است. بازنشر این مقاله با هدف ارائه دیدگاه‌های متنوع صورت گرفته و به معنای تأیید دیدگاه‌های مطرح‌شده نیست.

سورس ما: The Diplomat

💡 درباره منبع: دیپلمات (The Diplomat) یک مجله خبری آنلاین است که به طور گسترده به پوشش سیاست، جامعه و فرهنگ در منطقه آسیا و اقیانوسیه می‌پردازد. این نشریه به دلیل تحلیل‌های عمیق و به‌موقع خود در مورد مسائل ژئوپلیتیک این منطقه شناخته می‌شود.

✏️ درباره نویسنده: کای-شن هوانگ (Kai-Shen Huang) مدیر برنامه حکمرانی دموکراتیک در موسسه تحقیقاتی برای دموکراسی، جامعه و فناوری‌های نوظهور (DSET) در تایپه است. او در زمینه سیاست عمومی مرتبط با حکمرانی هوش مصنوعی، کمپین‌های اطلاعات نادرست و تاب‌آوری زنجیره تأمین تخصص دارد.

نمایش بیشتر
دکمه بازگشت به بالا
سورس ما | SourceMA

لطفاً تبلیغ‌گیر خود را غیرفعال کنید

کاربر گرامی، وب‌سایت ما برای تامین هزینه‌های نگهداری و ارائه محتوای به شما، نیازمند نمایش تبلیغات است. خواهشمندیم برای حمایت از ما و ادامه دسترسی به خدمات، تبلیغ‌گیر خود را غیرفعال نمایید. از همکاری شما صمیمانه سپاسگزاریم.