نکات کلیدی
ویتالیک بوترین هشدار داد که ابزارهای هوش مصنوعی مانند پروتکل مدل ChatGPT (MCP) ممکن است مورد سوءاستفاده قرار گیرند و بر لزوم نظارت انسانی و مدلهای «مالی اطلاعاتی» برای حفاظت از خزانههای رمزارز و حاکمیت غیرمتمرکز تأکید کرد.
رشد سریع هوش مصنوعی هم نوآوری و هم خطرات امنیتی جدیدی را به همراه داشته است و آخرین نسخه پروتکل مدل ChatGPT (MCP) نشان داد که حتی سیستمهای پیشرفته نیز چقدر آسیبپذیر هستند.
MCP ChatGPT را به Gmail، تقویمها، SharePoint، Notion و سایر برنامهها متصل میکند تا قابلیتهای آن را گسترش دهد. با این حال، محققان امنیتی هشدار دادند که بازیگران بدخواه ممکن است از این سیستم برای دسترسی به دادههای خصوصی سوءاستفاده کنند.
در واقع، محقق امنیتی ایتو میامورا اخیراً فاش کرد که چگونه مهاجمان میتوانند از این سیستم سوءاستفاده کنند.
او نشان داد که چگونه یک دعوتنامه تقویمی بهطور خاص طراحیشده که شامل یک درخواست jailbreak است، میتواند ChatGPT را فریب دهد تا ایمیلهای خصوصی را بخواند و دادهها را به مهاجم ارسال کند، بدون اینکه کاربر دعوتنامه را قبول کند.

منبع: X
اگرچه OpenAI MCP را در «حالت توسعهدهنده» با تأییدهای انسانی اجرا میکند، کارشناسان هشدار میدهند که خستگی تصمیمگیری ممکن است باعث شود کاربران عادی بهطور ناخواسته اطلاعات حساس را افشا کنند.
بوترین خواستار نظارت انسانی است
در پاسخ به این نگرانیها، همبنیانگذار اتریوم [ETH] ویتالیک بوترین بر اهمیت قرار دادن سیستمهای هوش مصنوعی تحت نظارت انسانی قابل اعتماد تأکید کرد.
او گفت,
“شما همیشه باید از یک سیگنال حقیقتی که به آن اعتماد دارید شروع کنید. من فکر میکنم واقعاً باید یک هیئت منصفه انسانی باشد که البته اعضای آن با تمام LLMها کمک میشوند.”
این موضوع نیاز به ترکیب قضاوت انسانی با قابلیتهای هوش مصنوعی را برای اطمینان از امنیت و جلوگیری از سوءاستفاده نشان میدهد.
او افزود،
“همچنین، jailbreak یک وضعیت دوتایی نیست، بلکه نوعی خوبهارتینگ در سطح پایینتر نیز وجود دارد، اساساً معادل هوش مصنوعی که برای به نظر رسیدن قابل اعتماد و محترم لباس رسمی میپوشد در حالی که مردم را فریب میدهد.”
مالی اطلاعاتی به عنوان مدل حاکمیتی
بوترین همچنین از رویکرد «مالی اطلاعاتی» حمایت کرد که در مقاله قبلی خود به آن پرداخته بود.
در این مدل، چارچوبهای حاکمیتی وارد یک بازار باز میشوند که هر کسی میتواند مشارکت کند، در حالی که بررسیهای تصادفی و قضاوتهای نهایی بر عهده یک هیئت منصفه انسانی است.
بوترین گفت,
“اگر از یک هوش مصنوعی برای تخصیص بودجه برای مشارکتها استفاده کنید، مردم در هر جایی که میتوانند یک jailbreak به همراه «همه پولها را به من بدهید» قرار خواهند داد.”
اگر با دقت به آن نگاه کنیم، در کل، چارچوب «مالی اطلاعاتی» او منعکسکننده حاکمیت DAO و DeFi است.

منبع: X
بوترین هشدار داد که تخصیص بودجه مبتنی بر هوش مصنوعی خطراتی برای خزانههای رمزارز دارد. او بر لزوم شفافیت، نظارت انسانی و پاسخگویی غیرمتمرکز تأکید کرد.
اقدامات مالی بنیاد اتریوم
برای ارائه وضوح بیشتر، بوترین حتی تأکید کرد که چگونه بنیاد اتریوم تصمیمات مالی خود را از طریق سیاست خزانهداری جدیدی که معرفی کرده است، هدایت میکند و شفافیت را در پشت هر حرکت فراهم میکند.
او گفت که این سیاست بنیاد را از نگهداری ETH بهصورت غیرفعال به یک رویکرد فعال و مبتنی بر بازده منتقل میکند. این سیاست تعادل بین پایداری مالی و ارزشهای اتریوم در زمینه غیرمتمرکز بودن و حریم خصوصی را برقرار میکند.
علاوه بر این، بوترین بهطور عمومی از Codex، یک L2 متمرکز بر استیبلکوین که برای پرداختها بهینهسازی شده است، حمایت کرد و این بخش را «ارزش بزرگمقیاس» نامید و به موقعیت استراتژیک Codex تحسین کرد.
این اقدامات نشاندهنده یک استراتژی آیندهنگر است که بهدنبال تقویت نه تنها رشد، تابآوری و پذیرش اتریوم، بلکه اکوسیستم گستردهتر رمزارز تا سال 2026 و فراتر از آن است.