مهندسی[ ویرایش ]

ویفری از کامپیوترهای کوانتومی آدیاباتیک

از سال 2023، رایانه های کلاسیک برای همه برنامه های کاربردی دنیای واقعی از رایانه های کوانتومی بهتر عمل می کنند. در حالی که کامپیوترهای کوانتومی فعلی ممکن است راه حل های مسائل ریاضی خاص را سرعت بخشند، اما هیچ مزیت محاسباتی برای کارهای عملی ندارند. برای بسیاری از کارها هیچ وعده افزایش سرعت کوانتومی مفیدی وجود ندارد، و برخی از کارها به طور قابل اثباتی هرگونه افزایش سرعت کوانتومی را ممنوع می کنند به این معنا که هر گونه افزایش سرعت توسط قضایای اثبات شده رد می شود. دانشمندان و مهندسان در حال بررسی فناوری‌های متعدد برای سخت‌افزار محاسبات کوانتومی هستند و امیدوارند که معماری‌های کوانتومی مقیاس‌پذیر را توسعه دهند، اما موانع جدی همچنان وجود دارد. [94] [95]

چالش ها [ ویرایش ]

تعدادی از چالش های فنی در ساخت یک کامپیوتر کوانتومی در مقیاس بزرگ وجود دارد. [96] فیزیکدان دیوید دی وینچنزو این الزامات را برای یک کامپیوتر کوانتومی عملی فهرست کرده است : [97]

  • از نظر فیزیکی مقیاس پذیر برای افزایش تعداد کیوبیت ها
  • کیوبیت هایی که می توانند به مقادیر دلخواه مقداردهی اولیه شوند
  • دروازه‌های کوانتومی که سریع‌تر از زمان ناهمدوسی هستند
  • ست دروازه جهانی
  • کیوبیت هایی که به راحتی قابل خواندن هستند.

تامین قطعات برای کامپیوترهای کوانتومی نیز بسیار دشوار است. کامپیوترهای کوانتومی ابررسانا ، مانند آنهایی که توسط گوگل و IBM ساخته شده اند، به هلیوم-3 ، محصول جانبی تحقیقات هسته ای و کابل های ابررسانای ویژه ای نیاز دارند که فقط توسط شرکت ژاپنی کواکس ساخته شده است. [98]

کنترل سیستم های چند کیوبیتی مستلزم تولید و هماهنگی تعداد زیادی سیگنال الکتریکی با وضوح زمان بندی دقیق و قطعی است. این منجر به توسعه کنترل‌کننده‌های کوانتومی شده است که ارتباط با کیوبیت‌ها را امکان‌پذیر می‌کنند. مقیاس بندی این سیستم ها برای پشتیبانی از تعداد فزاینده کیوبیت ها یک چالش اضافی است. [99]

عدم انسجام[ ویرایش ]

یکی از بزرگترین چالش‌های موجود در ساخت رایانه‌های کوانتومی، کنترل یا حذف ناهمدوسی کوانتومی است . این معمولاً به معنای جداسازی سیستم از محیط خود است زیرا تعاملات با دنیای بیرونی باعث جدا شدن سیستم می شود. با این حال، منابع دیگری از عدم انسجام نیز وجود دارد. به عنوان مثال می توان به دروازه های کوانتومی و ارتعاشات شبکه و اسپین گرما هسته ای پس زمینه سیستم فیزیکی که برای اجرای کیوبیت ها استفاده می شود اشاره کرد. عدم انسجام برگشت ناپذیر است، زیرا عملاً غیر واحد است و معمولاً چیزی است که اگر از آن اجتناب نشود، باید به شدت کنترل شود. زمان‌های ناهمدوسی به‌ویژه برای سیستم‌های کاندید، زمان آرامش عرضی T2 (برای فناوری NMR و MRI ، که زمان کاهش فاز نیز نامیده می‌شود )، معمولاً بین نانوثانیه و ثانیه در دمای پایین متغیر است. [100] در حال حاضر، برخی از کامپیوترهای کوانتومی به منظور جلوگیری از انسجام قابل توجه، به کیوبیت‌هایشان نیاز دارند که تا 20 میلی‌کلوین (معمولاً از یک یخچال رقیق‌سازی استفاده می‌کنند ) خنک شوند. [102] مطالعه‌ای در سال 2020 استدلال می‌کند که پرتوهای یونیزان مانند پرتوهای کیهانی می‌توانند باعث شوند که سیستم‌های خاصی در عرض میلی‌ثانیه جدا شوند. [103]

در نتیجه، کارهای وقت‌گیر ممکن است برخی از الگوریتم‌های کوانتومی را غیرقابل اجرا کند، زیرا تلاش برای حفظ وضعیت کیوبیت‌ها برای مدت زمان کافی طولانی، در نهایت برهم‌نهی‌ها را خراب می‌کند. [104]

این مسائل برای رویکردهای نوری دشوارتر هستند، زیرا مقیاس‌های زمانی مرتبه‌ای کوتاه‌تر هستند و یک رویکرد غالباً برای غلبه بر آنها شکل‌دهی پالس نوری است . نرخ خطا معمولاً متناسب با نسبت زمان عملیاتی به زمان ناپیوستگی است، از این رو هر عملیاتی باید بسیار سریعتر از زمان ناپیوستگی کامل شود.

همانطور که توسط قضیه آستانه توضیح داده شد ، اگر میزان خطا به اندازه کافی کوچک باشد، تصور می‌شود که می‌توان از تصحیح خطای کوانتومی برای سرکوب خطاها و ناپیوستگی استفاده کرد. در صورتی که طرح تصحیح خطا بتواند خطاها را سریعتر از زمانی که decoherence معرفی می کند، تصحیح کند، این اجازه می دهد تا کل زمان محاسبه بیشتر از زمان عدم انسجام باشد. رقمی که اغلب برای نرخ خطای مورد نیاز در هر گیت برای محاسبات تحمل‌پذیر خطا ذکر می‌شود، 10-3 است ، با این فرض که نویز دپلاریزاسیون است.

تحقق این شرط مقیاس پذیری برای طیف وسیعی از سیستم ها امکان پذیر است. با این حال، استفاده از تصحیح خطا هزینه افزایش بسیار زیادی از کیوبیت های مورد نیاز را به همراه دارد. عدد مورد نیاز برای فاکتورسازی اعداد صحیح با استفاده از الگوریتم Shor هنوز چند جمله‌ای است و گمان می‌رود بین L و L 2 باشد . الگوریتم های تصحیح خطا این رقم را با ضریب L افزایش می دهد . برای یک عدد 1000 بیتی، این به معنای نیاز به حدود 10 4 بیت بدون تصحیح خطا است. [105] با تصحیح خطا، این رقم به حدود 10 7 بیت افزایش می یابد. زمان محاسبه حدود L 2 یا حدود 107 گام و در 1 مگاهرتز، حدود 10 ثانیه است. با این حال، سربار رمزگذاری و تصحیح خطا، اندازه یک کامپیوتر کوانتومی متحمل خطا را با چندین مرتبه بزرگی افزایش می‌دهد. برآوردهای دقیق [106] [107] نشان می‌دهد که حداقل 3 میلیون کیوبیت فیزیکی در 5 ماه یک عدد صحیح 2048 بیتی را در یک کامپیوتر کوانتومی یونی به دام افتاده با خطای تصحیح شده کاملاً فاکتور می‌کند. از نظر تعداد کیوبیت های فیزیکی، تا به امروز، این کمترین برآورد [108] برای مسئله فاکتورسازی اعداد صحیح عملا مفید با اندازه 1024 بیتی یا بزرگتر است.

روش دیگر برای مسئله پایداری- ناهمدوسی، ایجاد یک کامپیوتر کوانتومی توپولوژیکی با آنیون‌ها ، شبه ذرات مورد استفاده به عنوان رشته‌ها، و تکیه بر نظریه braid برای تشکیل گیت‌های منطقی پایدار است. [109] [110]

برتری کوانتومی [ ویرایش ]

فیزیکدان جان پرسکیل اصطلاح برتری کوانتومی را برای توصیف شاهکار مهندسی نشان دادن این که یک دستگاه کوانتومی قابل برنامه ریزی می تواند مشکلی فراتر از توانایی های کامپیوترهای کلاسیک پیشرفته را حل کند، ابداع کرد. [111] [112] [113] مشکل لازم نیست مفید باشد، بنابراین برخی تست برتری کوانتومی را تنها به عنوان یک معیار بالقوه آینده می‌دانند. [114]

در اکتبر 2019، Google AI Quantum، با کمک ناسا، اولین کسی شد که ادعا کرد با انجام محاسبات روی رایانه کوانتومی Sycamore بیش از 3000000 برابر سریعتر از آنچه در Summit انجام می شود ، به برتری کوانتومی دست یافته است. کامپیوتر. [29] [115] [116] این ادعا متعاقباً به چالش کشیده شد: IBM بیان کرده است که Summit می‌تواند نمونه‌ها را بسیار سریع‌تر از آنچه ادعا می‌شود انجام دهد، [117] [118] و از آن زمان محققان الگوریتم‌های بهتری را برای مسئله نمونه‌گیری که برای ادعای کوانتومی استفاده می‌شود توسعه داده‌اند. برتری، کاهش قابل توجهی در شکاف بین Sycamore و ابررایانه های کلاسیک [119] [120] [121] و حتی شکست دادن آن. [122] [123] [124]

در دسامبر 2020، گروهی در USTC برای نشان دادن برتری کوانتومی ، نوعی نمونه‌برداری از بوزون را روی 76 فوتون با یک کامپیوتر کوانتومی فوتونیک به نام Jiuzhang اجرا کردند . [125] [126] [127] نویسندگان ادعا می کنند که یک ابر رایانه کلاسیک معاصر به زمان محاسباتی 600 میلیون سال نیاز دارد تا تعداد نمونه هایی را که پردازنده کوانتومی آنها می تواند در 20 ثانیه تولید کند تولید کند. [128]

ادعاهای برتری کوانتومی باعث ایجاد هیاهو در مورد محاسبات کوانتومی شده است، [129] اما آنها بر اساس وظایف محک ساخته شده ای هستند که مستقیماً کاربردهای مفید دنیای واقعی را نشان نمی دهند. [94] [130]

شک و تردید [ ویرایش ]

علیرغم امیدهای زیاد به محاسبات کوانتومی، پیشرفت قابل توجه در سخت افزار و خوش بینی در مورد برنامه های کاربردی آینده، یک مقاله نورافکن Nature در سال 2023 ، رایانه های کوانتومی فعلی را به عنوان «در حال حاضر، [برای] مطلقاً هیچ چیز [خوب]» خلاصه کرد. [94] مقاله توضیح داد که کامپیوترهای کوانتومی هنوز در هر صورت مفیدتر یا کارآمدتر از کامپیوترهای معمولی نیستند، اگرچه همچنین استدلال می‌کرد که در درازمدت چنین رایانه‌هایی احتمالاً مفید هستند. یک مقاله ACM در سال 2023 [95] نشان داد که الگوریتم‌های محاسباتی کوانتومی فعلی "برای مزیت کوانتومی عملی بدون پیشرفت‌های قابل توجه در پشته نرم‌افزار/سخت‌افزار کافی نیستند". این استدلال می‌کند که امیدوارکننده‌ترین نامزدها برای دستیابی به سرعت با رایانه‌های کوانتومی «مشکلات داده‌های کوچک» هستند، برای مثال در شیمی و علم مواد. با این حال، مقاله همچنین نتیجه می گیرد که طیف وسیعی از برنامه های کاربردی بالقوه ای که در نظر گرفته است، مانند یادگیری ماشین، "در آینده قابل پیش بینی با الگوریتم های کوانتومی فعلی به مزیت کوانتومی دست پیدا نخواهند کرد" و محدودیت های ورودی/خروجی را شناسایی کرد که افزایش سرعت را بعید می کند. "مشکلات کلان داده، سیستم های خطی بدون ساختار، و جستجوی پایگاه داده بر اساس الگوریتم گروور".

این وضعیت را می توان در چندین ملاحظات جاری و بلندمدت دنبال کرد.

  • سخت افزار و الگوریتم های معمولی رایانه نه تنها برای کارهای عملی بهینه شده اند، بلکه همچنان به سرعت در حال بهبود هستند، به ویژه شتاب دهنده های GPU .
  • سخت افزار محاسباتی کوانتومی کنونی قبل از غرق شدن در نویز، تنها مقدار محدودی درهم تنیدگی ایجاد می کند.
  • الگوریتم‌های کوانتومی فقط برای برخی کارها سرعت بیشتری نسبت به الگوریتم‌های معمولی ارائه می‌کنند و تطبیق این وظایف با کاربردهای عملی چالش برانگیز است. برخی از وظایف و برنامه های کاربردی امیدوارکننده به منابعی بسیار فراتر از آنچه امروز در دسترس است نیاز دارند. [131] [132] به ویژه، پردازش مقادیر زیادی از داده های غیرکوانتومی یک چالش برای کامپیوترهای کوانتومی است. [95]
  • برخی از الگوریتم‌های امیدوارکننده «دکوانتیزه‌شده» شده‌اند، یعنی آنالوگ‌های غیرکوانتومی آن‌ها با پیچیدگی مشابه پیدا شده‌اند.
  • اگر تصحیح خطای کوانتومی برای مقیاس‌سازی رایانه‌های کوانتومی به کاربردهای عملی استفاده شود، سربار آن ممکن است سرعت ارائه شده توسط بسیاری از الگوریتم‌های کوانتومی را تضعیف کند. [95]
  • تحلیل پیچیدگی الگوریتم‌ها گاهی اوقات مفروضات انتزاعی ایجاد می‌کند که در کاربردها صادق نیستند. برای مثال، داده‌های ورودی ممکن است از قبل به صورت کدگذاری شده در حالت‌های کوانتومی در دسترس نباشند، و «توابع اوراکل» که در الگوریتم گروور استفاده می‌شوند ، اغلب ساختار داخلی دارند که می‌توانند برای الگوریتم‌های سریع‌تر مورد سوء استفاده قرار گیرند.

به طور خاص، ساختن کامپیوترهایی با تعداد زیادی کیوبیت ممکن است بیهوده باشد، اگر آن کیوبیت ها به اندازه کافی به هم متصل نباشند و نتوانند درجه درهم تنیدگی کافی را برای مدت طولانی حفظ کنند. محققان محاسبات کوانتومی هنگام تلاش برای برتری بر رایانه‌های معمولی، اغلب به دنبال کارهای جدیدی هستند که می‌توان آنها را در رایانه‌های کوانتومی حل کرد، اما این امکان را ایجاد می‌کند که تکنیک‌های غیرکوانتومی کارآمد در پاسخ، همانطور که برای نمایش برتری کوانتومی دیده می‌شود، ایجاد شود . بنابراین، مطلوب است که مرزهای پایین‌تر در پیچیدگی بهترین الگوریتم‌های غیرکوانتومی ممکن (که ممکن است ناشناخته باشند) ثابت شود و نشان داده شود که برخی از الگوریتم‌های کوانتومی بدون علامت بر روی آن مرزها بهبود می‌یابند.

برخی از محققین نسبت به ساخت کامپیوترهای کوانتومی مقیاس پذیر ابراز تردید کرده اند، معمولاً به دلیل مسئله حفظ انسجام در مقیاس های بزرگ، اما به دلایل دیگر.

بیل اونرو در مقاله ای که در سال 1994 منتشر شد، در مورد عملی بودن رایانه های کوانتومی تردید داشت . [133] پل دیویس استدلال کرد که یک رایانه 400 کیوبیتی حتی با اطلاعات کیهانی که توسط اصل هولوگرافیک مستلزم آن است، در تضاد خواهد بود . [134] شکاکانی مانند گیل کالای تردید دارند که برتری کوانتومی هرگز حاصل شود. [135] [136] [137] فیزیکدان میخائیل دیاکونوف شک و تردید را نسبت به محاسبات کوانتومی به شرح زیر بیان کرده است:

بنابراین تعداد پارامترهای پیوسته ای که وضعیت چنین کامپیوتر کوانتومی مفیدی را در هر لحظه توصیف می کنند باید ... حدود 10 300 باشد ... آیا می توانیم یاد بگیریم که بیش از 10 300 پارامتر متغیر پیوسته را که وضعیت کوانتومی را تعریف می کنند، کنترل کنیم. چنین سیستمی؟ پاسخ من ساده است. نه، هرگز. » [138] [139]