نشریه دیپلمات: «آنچه دموکراسیها درباره هوش مصنوعی چین اشتباه میکنند» | ۲۶ تیر ۱۴۰۴
نگرانی اصلی دموکراسیها نباید عقب ماندن در مسابقه ساخت مدلهای هوش مصنوعی باشد، بلکه باید فقدان یک استراتژی منسجم برای مقابله با خطرات ناشی از نفوذ فناوری چین باشد.

⏳ مدت زمان مطالعه: ۶ دقیقه | ✏️ ناشر/نویسنده: دیپلمات/کای-شن هوانگ | 📅 تاریخ: ۲۱.Jun.2025 / خرداد ۱۴۰۴
⚠️ هشدار: بازنشر این مقاله صرفاً دیدگاههای نویسنده و منبع اصلی را منعکس میکند و به معنای تأیید یا پذیرش مسئولیت دیدگاههای مطرحشده نیست.
دموکراسیهایی مانند تایوان باید کمتر نگران عقب ماندن از پیشرفت هوش مصنوعی چین باشند و بیشتر نگران خلاء استراتژیکی باشند که فناوری چین آشکار میسازد.
دموکراسیها به طور فزایندهای نگران ظهور هوش مصنوعی چین هستند، اما همیشه در مورد اینکه دقیقاً چه چیزی در خطر است، واضح نیستند. ظهور ناگهانی DeepSeek در اوایل سال جاری، محبوبترین مدل متنباز چین تا به امروز، این موضوع را به سطح آورد. اظهارنظرهای غربی از آن زمان بین هشدار در مورد پیشرفت سریع پکن و یک باور پایدار مبنی بر اینکه هنوز عقب است، در نوسان بوده است. به عنوان مثال، OpenAI نشان میدهد که چین به سرعت در حال کاهش شکاف است، حتی اگر هنوز پیشرو نباشد. جنسن هوانگ، مدیرعامل انویدیا، به صراحت اعلام کرد: چین «عقب نیست.» اظهارات او بیش از به چالش کشیدن یک روایت فنی بود. این یک ناراحتی فزاینده را تشدید کرد که کشورهای کمی استراتژی یا آمادگی برای آنچه ردپای در حال گسترش هوش مصنوعی چین ممکن است به معنای آن باشد، دارند.
اینجاست که بخش بزرگی از هشدارهای کنونی به بیراهه میرود. اختلالی که DeepSeek نشان میدهد لزوماً در پیشی گرفتن از مدلهای پیشگام غربی نیست، بلکه در نشان دادن این است که چین میتواند یک اکوسیستم هوش مصنوعی تجاری قابل دوام را حفظ کند، که قادر به تولید خدماتی است که در سطح جهانی هم از نظر عملکرد و هم از نظر قیمت رقابتی هستند. با این حال، اضطراب عمومی همچنان بر ترس از عقب ماندن در یک مسابقه مدل متمرکز است، در حالی که یک نقطه کور فوریتر را از دست میدهد: فقدان یک استراتژی منسجم برای مقابله با خطرات سیستمی ناشی از استقرار شتابان خدمات هوش مصنوعی چین در جوامع دموکراتیک.
لحظه هوش مصنوعی چینی تایوان
هیچ جا این ترس از عقب ماندن ملموستر از تایوان نیست. DeepSeek یک زنگ بیدارباش برای سیاستگذاران تایوانی بود. این امر یک بحث ملی را نه تنها در مورد مقیاس پیشرفت هوش مصنوعی چین، بلکه در مورد تلاشهای کند و پراکنده خود تایوان برای توسعه یک مدل زبان بومی با مقیاس یا دید رقابتی، به راه انداخت. سؤال «چرا تایوان نمیتواند یک DeepSeek برای خود داشته باشد؟» به سرعت به یک منبع فشار سیاسی و خودکاوی نهادی تبدیل شد.
دلیل اصلی اینکه این اضطراب به این سرعت ریشه دوانده این است که یک هدف داخلی پیدا کرده است. TAIDE، ابتکار تحت حمایت دولت تایوان برای ساخت یک مدل زبان که منعکسکننده ویژگیهای زبانی و فرهنگی آن است، به یک نقطه مقایسه نامطلوب تبدیل شد. مقیاس و باز بودن DeepSeek آن را به یک آینه تبدیل کرد، محدودیتهای TAIDE را آشکار ساخت و آن را به کانون توجه نظارت عمومی کشاند.
در فوریه ۲۰۲۵، تنها چند هفته پس از اینکه R1 DeepSeek سرفصل خبرها شد، TAIDE یک مدل بهروز شده، Llama 3.1-TAIDE-LX-8B-Chat، با رمزگشایی بهبود یافته برای چینی سنتی و طول زمینه گسترشیافته ۱۳۱ هزار توکن منتشر کرد. اما این ارتقاءها تأثیر چندانی در تغییر روایت نداشتند. در برابر ۶۷۱ میلیارد پارامتر DeepSeek R1، وزنهای کاملاً باز تحت مجوز MIT و به رسمیت شناختن فوری جهانی، TAIDE کمتر شبیه یک پیشرفت حاکمیتی و بیشتر شبیه یک نمونه اولیه دیرهنگام به نظر میرسید: صادق در جاهطلبی، متواضع در ارائه و بیسروصدا تحتالشعاع قرار گرفته قبل از اینکه بتواند وارد رینگ شود.
نظارت با یک تحقیق رسمی توسط کنترل یوان تایوان، نهاد قانون اساسی مسئول نظارت بر دولت، عمیقتر شد. در آوریل ۲۰۲۵، این نهاد به این نتیجه رسید که TAIDE از هماهنگی ضعیف، دسترسی ناکافی به دادهها و شکستهای حاکمیتی سیستمی رنج میبرد. از ۵۸ مجموعه داده دولتی که برای آموزش جمعآوری شده بود، تنها دو مورد از طریق پلتفرم دادههای باز ملی کاملاً قابل دسترسی بودند. کنترل یوان، وزارت امور دیجیتال را به دلیل شکست در مأموریت حاکمیت داده خود مقصر دانست و از یوان اجرایی (کابینه تایوان) به دلیل نادیده گرفتن هماهنگی بین سازمانی انتقاد کرد.
آنچه قرار بود نشانه حاکمیت هوش مصنوعی باشد، در عوض یک دستگاه دولتی را آشکار کرده بود که برای تأمین همان دادههایی که مدل ملیاش به آن وابسته بود، آماده نبود. TAIDE به یک مطالعه موردی در برنامهریزی ناهماهنگ و جاهطلبی نمادین تبدیل شد که در هزارتوی ابهامات قانونی، فرآیندهای پراکنده و ظرفیت نهادی توسعهنیافته گرفتار شده بود.
ناسیونالیسم فناوری نابجا
پویاییهایی که پیرامون DeepSeek و TAIDE رخ داد، نمونهای از یک آیین سیاسی است که اکنون به روال تبدیل شده است: اضطراب عقب ماندن به عنوان یک تلاش میهنپرستانه برای «هوش مصنوعی حاکمیتی» بازبستهبندی میشود. اما این انگیزه اغلب لفاظی را جایگزین استراتژی میکند و سؤالات سیاستی اساسیتری را به طور آشکار دستنخورده باقی میگذارد.
این وضعیت قبلاً پاسخهای نهادی را شکل داده است. ادعاهای تایوان در مورد توسعه هوش مصنوعی «حاکمیتی» اغلب یک واقعیت متواضعانهتر را پنهان میکند: تنظیم دقیق مدلهای پیشرفته خارجی مانند LLaMA به جای ساختن سیستمهای واقعاً بومی. هنگامی که DeepSeek سرفصل خبرها شد، اولین اقدام دولت سرمایهگذاری در زیرساختهای اصلی یا قابلیتهای بلندمدت نبود، بلکه به سادگی ممنوعیت استفاده از این مدل در تمام آژانسهای دولتی بود. جذابیت آن آشکار است. گرد آمدن حول یک شعار وجودی آسانتر از تعهد به یک برنامه اصلاحی غیرجذاب سیاسی است. اما وضوح در سطح لفاظی تمایل به پنهان کردن سردرگمی در سطح استراتژی دارد. همچنین سؤالات سیاستی سختتری را خاموش میکند، از آن نوع که به بیش از شعار نیاز دارند.
به طور خاص، مشکل این روایت ناسیونالیستی این است که تایوان را به مسیری متعهد میکند که هم بیش از حد بلندپروازانه و هم بیش از حد محدود است.
بیش از حد بلندپروازانه، زیرا موفقیت را با عباراتی که توسط ابرقدرتها استفاده میشود، تعریف میکند. ساختن یک مدل زبان حاکمیتی به عنوان یک ضرورت ملی تلقی میشود، با مقایسههای ضمنی با ایالات متحده و چین. به نظر میرسد یک باور آرام وجود دارد که مهارت تایوان در ساخت تراشه، آن را مستحق موفقیت در ساخت مدل میکند – گویی فابها میتوانند جایگزین مدلهای پایه شوند. با این حال، تایوان فاقد تعهد به مقیاس مورد نیاز برای مطابقت با این معیارها است، چه در دادههای آموزشی و چه در کانالهای استقرار جهانی. این کشور همچنان با بودجه عمومی محدود و یک محیط سیاستی پراکنده فعالیت میکند. هیچکدام برای حمایت از توسعه هوش مصنوعی بلندمدت و پرمخاطره مناسب نیستند.
این رویکرد همزمان بیش از حد محدود است، زیرا عملکرد را با نمایندگی فرهنگی معامله میکند. قاببندی مدل به عنوان محملی برای فرهنگ ملی ممکن است از نظر سیاسی خوشایند باشد، اما انتظاراتی را ایجاد میکند که برآورده کردن آنها دشوار است و بازارهایی که به سختی وجود دارند. سیستمی که برای انعکاس ویژگیهای فرهنگی ساخته شده ممکن است سرمایه سیاسی کسب کند، اما این به ندرت به سودمندی در دنیای واقعی تبدیل میشود. این در جایی که اهمیت دارد، عمل نخواهد کرد: استفاده تجاری، یکپارچگی فرامرزی یا معیارهای فنی.
در بهترین حالت، نتیجه یک مدلی خواهد بود که به انسجام سیاسی دست مییابد اما ارتباط عملی کمی ارائه میدهد. سیستمی که نتواند رقابت کند، همچنان شکست خواهد خورد، هم در داخل و هم در خارج، صرف نظر از اینکه چقدر صادقانه تلاش میکند تا ویژگیهای ملی را رمزگذاری کند، با فرض اینکه چنین ویژگیهایی اصلاً قابل عملیاتی شدن باشند.
نتیجه یک دستور کار سیاستی تحریفشده است. توجه سیاسی و نهادی بر ارزش نمادین یک مدل شاخص متمرکز میشود، در حالی که ستونهای بنیادیتر توسعه پایدار هوش مصنوعی نادیده گرفته میشوند. حاکمیت داده، همکاری بین بخشی و طراحی زیرساخت توجه بسیار کمتری دریافت میکنند. بنابراین، جاهطلبی به جایگزینی تبدیل میشود: تلاش برای ادعای مالکیت نمادین، زمان، دید و منابعی را که در غیر این صورت ممکن است از استراتژیهای هوش مصنوعی کثرتگراتر و مقاومتر حمایت کنند، مصرف میکند.
مقابله با خلاء استراتژیک
آنچه در تایوان به عنوان یک زیادهروی استراتژیک به نظر میرسید، در واقع، بخشی از یک الگوی جهانی گستردهتر است. در سراسر مناطق از اروپا تا شرق آسیا، شرکت در مسابقه هوش مصنوعی جایگزین برنامهریزی منسجم شده است. دولتها به طور فزایندهای مدلهای پایه را به عنوان داراییهای استراتژیک مشروعیت دیجیتال تلقی میکنند. به عنوان مثال، برنامه اقدام قاره هوش مصنوعی اتحادیه اروپا در سال ۲۰۲۵، هم مدلهای پیشگام و هم مدلهای منبعباز را در مرکز جاهطلبی خود برای رهبری در هوش مصنوعی قابل اعتماد قرار میدهد.
در این منطق، ساختن یک مدل ملی به بلیطی برای ارتباط ژئوپلیتیکی، سیگنالی از عقب نماندن تبدیل میشود. اما این روایت مدل-محور، هر چقدر هم که مرتب باشد، جاهطلبی تکنولوژیکی را با قضاوت استراتژیک اشتباه میگیرد. برای دموکراسیهای کوچکتر و متوسط، دنبال کردن هوش مصنوعی پیشگام نه تنها دیر است بلکه اشتباه هدایت شده است. بیشتر آنها فاقد منابع برای توسعه و حفظ مدلهای پیشرفته در مقیاس بزرگ هستند. بدتر از آن، آنها با خطر انحراف ظرفیت کمیاب به سمت ابتکارات نمایشی به جای تقویت حوزههایی که ممکن است در آنها پیشرو باشند، روبرو هستند. اینها شامل کاربردهای تخصصی، ابزارهای چندزبانه، استقرارهای مدنی یا طراحی اکوسیستم است. تراژدی این نیست که آنها عقب هستند. این است که آنها احتمالاً در مسابقه اشتباهی میدوند.
پس، کشورهای دموکراتیک واقعاً باید نگران چه چیزی باشند؟ لزوماً سرعت پیشرفت هوش مصنوعی چین نیست، بلکه خلاء استراتژیکی است که آن را آشکار میسازد. تعداد کمی چارچوبهایی برای ارزیابی ابزارهای هوش مصنوعی تحت حمایت چین ایجاد کردهاند، چه رسد به حاکمیت بر نحوه پذیرش، تطبیق یا تعبیه آن ابزارها در سیستمهای داخلی.
حتی توسعهیافتهترین تلاشهای نظارتی نیز هنوز به طور کامل به این شکاف رسیدگی نکردهاند. به عنوان مثال، قانون هوش مصنوعی اتحادیه اروپا یک رویکرد ساختاریافته مبتنی بر ریسک را ارائه میدهد که نگرانیهای عملکردی مانند سوء استفاده، تعصب و شکست سیستمی را پوشش میدهد، اما توجه محدودی به منشأ ژئوپلیتیکی سیستمهای هوش مصنوعی دارد. ریسک زنجیره تأمین و منبع مبدأ، به ویژه در رابطه با خدمات توسعهیافته در رژیمهای غیر دموکراتیک، خارج از محدوده فعلی آن باقی مانده است.
فراتر از کنترلهای صادراتی
فوریت خلاء استراتژیک زمانی روشنتر میشود که در نظر بگیریم ردپای هوش مصنوعی چین دیگر به مرزهای خودش محدود نمیشود. در داخل، مدلهایی مانند DeepSeek قبلاً زیربنای طیف گستردهای از عملکردهای صنعتی و دولتی هستند، از غولهای انرژی مانند سینوپک و CNOOC گرفته تا مؤسسات مالی مانند ICBC و بانک پسانداز پستی. آنها از مدیریت دانش، اتوماسیون خدمات مشتری، تدوین سیاست و تحقیقات داخلی در بخشهایی از جمله مراقبتهای بهداشتی، آموزش، مخابرات و رسانه پشتیبانی میکنند. در چین، مدلهای پایه اکنون به عنوان زیرساختهای ضروری عمل میکنند تا آزمایشهای تکنولوژیکی انتزاعی.
تحول مهمتر در چیزی است که به دنبال میآید. خدمات مشابه اکنون، هم به طور مستقیم و هم غیرمستقیم، از طریق نسخههای با وزن باز، یکپارچهسازی سازمانی و فروشندگان شخص ثالث، صادر میشوند. به نظر میرسد پیشنهادات هوش مصنوعی چینی در حال ورود به لحظه تیکتاک خود هستند: تغییر از مقیاس داخلی به انتشار جهانی، اغلب بیسروصدا و از طریق کانالهایی که از آگاهی نظارتی پیشی میگیرند. سؤال مهم اکنون این نیست که آیا چین میتواند مدلهای رقابتی بسازد، بلکه این است که آن سیستمها با چه سرعتی و تا چه حد در حال گسترش هستند – و نهادهای دموکراتیک چقدر برای نظارت یا پاسخگویی آماده نیستند.
در تایوان، گسترش DeepSeek قبلاً زنگهای خطر را به صدا درآورده است. فراتر از یک دستورالعمل محدود که استفاده از آن را در آژانسهای دولتی ممنوع میکند، هیچ چارچوب جامعی برای حاکمیت بر واردات، کاربرد یا منشأ سیستمهای هوش مصنوعی تحت حمایت چین وجود ندارد. پذیرش تجاری و بخش خصوصی عمدتاً بدون نظارت باقی مانده است. آگاهی عمومی ناچیز و حتی نقشهبرداری نهادی کمتری از مدلهای چینی تغییر نام یافته یا مشتق شده که از طریق یکپارچهسازان شخص ثالث یا فروشندگان محلی وارد میشوند، وجود دارد. نتیجه یک نقطه کور نظارتی است.
بخش بزرگی از بحث سیاست جهانی هوش مصنوعی امروز همچنان بر کنترل آنچه خارج میشود – از طریق محدودیتهای صادراتی، غربالگری سرمایهگذاری خارجی و رژیمهای صدور مجوز – متمرکز است. توجه بسیار کمتری به آنچه وارد میشود، میشود. مدلها و خدمات مبتنی بر هوش مصنوعی چینی اکنون با نظارت کمی در سراسر مرزها در گردش هستند. این عدم تعادل، دموکراسیها را از نظر ساختاری در معرض خطر قرار میدهد: به خطرات خروجی توجه دارند، اما نسبت به آسیبپذیریهای ورودی کور هستند.
اگر دموکراسیها بخواهند به طور معناداری به ظهور هوش مصنوعی چین پاسخ دهند، پاسخ در تکرار استراتژی توسعه آن یافت نخواهد شد. آنچه مورد نیاز است، ساختن نهادها، هنجارها و ظرفیت فنی برای ارزیابی، حاکمیت و در صورت لزوم، رد سیستمهایی است که تابآوری دموکراتیک را تهدید میکنند. بدون این، مسابقه مدل یک انحراف است. آزمون واقعی در حاکمیت نهفته است، نه فقط در مهندسی، و در شناخت این است که قدرت نه تنها از نوع هوش مصنوعی که دموکراسیها میتوانند بسازند، بلکه از آنچه مایل به ورود آن هستند نیز ناشی میشود.
”