عصر هک هوش مصنوعی نزدیکتر از چیزی است که فکر می کنید


و در نهایت – پیچیدگی: هک‌های با کمک هوش مصنوعی در را به روی استراتژی‌های پیچیده فراتر از استراتژی‌هایی که می‌تواند توسط ذهن بدون کمک انسان ابداع شود، باز می‌کند. تحلیل‌های آماری پیچیده هوش مصنوعی می‌تواند روابط بین متغیرها و در نتیجه بهره‌برداری‌های احتمالی را که بهترین استراتژیست‌ها و کارشناسان هرگز تشخیص نداده‌اند، آشکار کند. این پیچیدگی ممکن است به هوش مصنوعی اجازه دهد تا استراتژی هایی را به کار گیرد که سطوح مختلف سیستم هدف را زیر و رو کند. به ،وان مثال، یک هوش مصنوعی طراحی شده برای به حدا،ر رساندن سهم یک حزب سیاسی ممکن است ،یب دقیقی از متغیرهای اقتصادی، پیام‌های تبلیغاتی و تغییرات رای‌گیری رویه‌ای را تعیین کند که می‌تواند بین پیروزی و ش،ت انتخابات تفاوت ایجاد کند، و انقلابی را که نرم‌افزار نقشه‌برداری به ارمغان آورد، گسترش دهد. همه جنبه های دموکراسی و این حتی وارد شدن به ترفندهایی که یک هوش مصنوعی می‌تواند برای دستکاری بازار سهام، سیستم‌های قانونگذاری یا افکار عمومی پیشنهاد کند، نیست.

با سرعت، مقیاس، وسعت و پیچیدگی رایانه، هک ، به مشکلی تبدیل خواهد شد که ما به ،وان یک جامعه دیگر نمی تو،م آن را مدیریت کنیم.

یاد صحنه ای از فیلم می افتم نابود کننده، که در آن کایل ریس سایبورگی که او را شکار می کند برای سارا کانر توصیف می کند: «نمی توان با آن معامله کرد. نمی توان با آن استدلال کرد. احساس ترحم، پشیم، و ترس ندارد. و مطلقاً هرگز متوقف نخواهد شد… ” ما با آن سروکار نداریم تحت اللفظی قاتلان سایبورگ، اما از آنجایی که هوش مصنوعی به دشمن ما در دنیای هک اجتماعی تبدیل می‌شود، ممکن است به همان اندازه سخت باشیم که با توانایی غیرانس، آن در شکار آسیب‌پذیری‌هایمان همراه شویم.

برخی از محققان هوش مصنوعی نگران میزان غلبه هوش مصنوعی قدرتمند بر محدودیت های تحمیل شده توسط انسان و – به طور بالقوه – تسلط بر جامعه هستند. اگرچه ممکن است این یک حدس و گمان وحشیانه به نظر برسد، سناریویی است که حداقل ارزش آن را دارد که در نظر گرفته شود و از آن پیشگیری شود.

با این حال، امروز و در آینده نزدیک، هک توصیف شده در این کتاب توسط قدرتمندان علیه بقیه ما انجام خواهد شد. همه هوش مصنوعی‌های موجود، چه روی لپ‌تاپ شما، چه آنلاین یا در یک ربات، توسط افراد دیگر برنامه‌ریزی می‌شوند که معمولاً به نفع آن‌ها هستند و نه منافع شما. اگرچه یک دستگاه متصل به اینترنت مانند ال،ا می تواند دوست مورد اعتماد شما را تقلید کند، هرگز فراموش نکنید که برای فروش محصولات آمازون طراحی شده است. و همانطور که وب سایت آمازون شما را به ،ید مارک های خانگی آن به جای کالاهای با کیفیت بالاتر رقبا تشویق می کند، همیشه به نفع شما عمل نخواهد کرد. اعتماد شما به آمازون را برای اه، سهامدارانش هک می کند.

در غیاب هیچ مقررات م،ی‌داری، واقعاً نمی‌تو،م کاری انجام دهیم تا از آشکار شدن هک هوش مصنوعی جلوگیری کنیم. ما باید بپذیریم که اجتناب‌ناپذیر است و ساختارهای حاکم قوی بسازیم که می‌تواند با عادی‌سازی هک‌های مفید در سیستم و خنثی ، هک‌های م،ب یا آسیب‌رسان غیرعمدی به سرعت و به طور موثر پاسخ دهد.

این چالش سوالات عمیق‌تر و سخت‌تری را نسبت به چگونگی تکامل هوش مصنوعی یا نحوه پاسخگویی موسسات به آن ایجاد می‌کند: چه هک‌هایی مفید هستند؟ کدام مضر هستند؟ و چه ،ی تصمیم می گیرد؟ اگر فکر می‌کنید ،ت باید آنقدر کوچک باشد که در وان غرق شود، احتمالاً فکر می‌کنید هک‌هایی که توانایی ،ت برای کنترل شهروندانش را کاهش می‌دهند معمولاً خوب هستند. اما هنوز هم ممکن است نخواهید اربابان تکنولوژیک را جایگزین اربابان سیاسی کنید. اگر به اصل احتیاط اعتقاد دارید، می‌خواهید تا آنجا که ممکن است متخصصان هک‌ها را قبل از اینکه در سیستم‌های اجتماعی ما گنجانده شوند آزمایش و قضاوت کنند. و ممکن است بخواهید این اصل را بیشتر در بالادست، برای نهادها و ساختارهایی که این هک ها را ممکن می کنند، اعمال کنید.

سوالات ادامه دارد. آیا هک های ایجاد شده توسط هوش مصنوعی باید به صورت محلی اداره شوند یا جه،؟ توسط مدیران یا با رفراندوم؟ یا راهی وجود دارد که بتو،م اجازه دهیم بازار یا گروه های جامعه مدنی تصمیم بگیرند؟ (تلاش‌های کنونی برای اعمال مدل‌های حاکمیتی در الگوریتم‌ها، نشان‌دهنده اولیه چگونگی انجام این کار است.) ساختارهای حاکمیتی که ما طراحی می‌کنیم به برخی افراد و سازمان‌ها قدرت می‌دهد تا هک‌هایی را که آینده را شکل می‌دهند، تعیین کنند. ما باید اطمینان حاصل کنیم که این قدرت عاقلانه اعمال می شود.


برگرفته از ذهن یک هکر: چگونه قواعد جامعه قدرتمند خم می شود و چگونه آنها را به عقب برگرد،م توسط بروس اشنایر حق چاپ © 2023 توسط بروس اشنایر. استفاده با اجازه ناشر WW Norton & Company, Inc. کلیه حقوق محفوظ است.


منبع: https://www.wired.com/story/artificial-intelligence-hacking-bruce-schneier/