4-محاسبات کوانتومی
مهندسی[ ویرایش ]
ویفری از کامپیوترهای کوانتومی آدیاباتیک
از سال 2023، رایانه های کلاسیک برای همه برنامه های کاربردی دنیای واقعی از رایانه های کوانتومی بهتر عمل می کنند. در حالی که کامپیوترهای کوانتومی فعلی ممکن است راه حل های مسائل ریاضی خاص را سرعت بخشند، اما هیچ مزیت محاسباتی برای کارهای عملی ندارند. برای بسیاری از کارها هیچ وعده افزایش سرعت کوانتومی مفیدی وجود ندارد، و برخی از کارها به طور قابل اثباتی هرگونه افزایش سرعت کوانتومی را ممنوع می کنند به این معنا که هر گونه افزایش سرعت توسط قضایای اثبات شده رد می شود. دانشمندان و مهندسان در حال بررسی فناوریهای متعدد برای سختافزار محاسبات کوانتومی هستند و امیدوارند که معماریهای کوانتومی مقیاسپذیر را توسعه دهند، اما موانع جدی همچنان وجود دارد. [94] [95]
چالش ها [ ویرایش ]
تعدادی از چالش های فنی در ساخت یک کامپیوتر کوانتومی در مقیاس بزرگ وجود دارد. [96] فیزیکدان دیوید دی وینچنزو این الزامات را برای یک کامپیوتر کوانتومی عملی فهرست کرده است : [97]
- از نظر فیزیکی مقیاس پذیر برای افزایش تعداد کیوبیت ها
- کیوبیت هایی که می توانند به مقادیر دلخواه مقداردهی اولیه شوند
- دروازههای کوانتومی که سریعتر از زمان ناهمدوسی هستند
- ست دروازه جهانی
- کیوبیت هایی که به راحتی قابل خواندن هستند.
تامین قطعات برای کامپیوترهای کوانتومی نیز بسیار دشوار است. کامپیوترهای کوانتومی ابررسانا ، مانند آنهایی که توسط گوگل و IBM ساخته شده اند، به هلیوم-3 ، محصول جانبی تحقیقات هسته ای و کابل های ابررسانای ویژه ای نیاز دارند که فقط توسط شرکت ژاپنی کواکس ساخته شده است. [98]
کنترل سیستم های چند کیوبیتی مستلزم تولید و هماهنگی تعداد زیادی سیگنال الکتریکی با وضوح زمان بندی دقیق و قطعی است. این منجر به توسعه کنترلکنندههای کوانتومی شده است که ارتباط با کیوبیتها را امکانپذیر میکنند. مقیاس بندی این سیستم ها برای پشتیبانی از تعداد فزاینده کیوبیت ها یک چالش اضافی است. [99]
عدم انسجام[ ویرایش ]
یکی از بزرگترین چالشهای موجود در ساخت رایانههای کوانتومی، کنترل یا حذف ناهمدوسی کوانتومی است . این معمولاً به معنای جداسازی سیستم از محیط خود است زیرا تعاملات با دنیای بیرونی باعث جدا شدن سیستم می شود. با این حال، منابع دیگری از عدم انسجام نیز وجود دارد. به عنوان مثال می توان به دروازه های کوانتومی و ارتعاشات شبکه و اسپین گرما هسته ای پس زمینه سیستم فیزیکی که برای اجرای کیوبیت ها استفاده می شود اشاره کرد. عدم انسجام برگشت ناپذیر است، زیرا عملاً غیر واحد است و معمولاً چیزی است که اگر از آن اجتناب نشود، باید به شدت کنترل شود. زمانهای ناهمدوسی بهویژه برای سیستمهای کاندید، زمان آرامش عرضی T2 (برای فناوری NMR و MRI ، که زمان کاهش فاز نیز نامیده میشود )، معمولاً بین نانوثانیه و ثانیه در دمای پایین متغیر است. [100] در حال حاضر، برخی از کامپیوترهای کوانتومی به منظور جلوگیری از انسجام قابل توجه، به کیوبیتهایشان نیاز دارند که تا 20 میلیکلوین (معمولاً از یک یخچال رقیقسازی استفاده میکنند ) خنک شوند. [102] مطالعهای در سال 2020 استدلال میکند که پرتوهای یونیزان مانند پرتوهای کیهانی میتوانند باعث شوند که سیستمهای خاصی در عرض میلیثانیه جدا شوند. [103]
در نتیجه، کارهای وقتگیر ممکن است برخی از الگوریتمهای کوانتومی را غیرقابل اجرا کند، زیرا تلاش برای حفظ وضعیت کیوبیتها برای مدت زمان کافی طولانی، در نهایت برهمنهیها را خراب میکند. [104]
این مسائل برای رویکردهای نوری دشوارتر هستند، زیرا مقیاسهای زمانی مرتبهای کوتاهتر هستند و یک رویکرد غالباً برای غلبه بر آنها شکلدهی پالس نوری است . نرخ خطا معمولاً متناسب با نسبت زمان عملیاتی به زمان ناپیوستگی است، از این رو هر عملیاتی باید بسیار سریعتر از زمان ناپیوستگی کامل شود.
همانطور که توسط قضیه آستانه توضیح داده شد ، اگر میزان خطا به اندازه کافی کوچک باشد، تصور میشود که میتوان از تصحیح خطای کوانتومی برای سرکوب خطاها و ناپیوستگی استفاده کرد. در صورتی که طرح تصحیح خطا بتواند خطاها را سریعتر از زمانی که decoherence معرفی می کند، تصحیح کند، این اجازه می دهد تا کل زمان محاسبه بیشتر از زمان عدم انسجام باشد. رقمی که اغلب برای نرخ خطای مورد نیاز در هر گیت برای محاسبات تحملپذیر خطا ذکر میشود، 10-3 است ، با این فرض که نویز دپلاریزاسیون است.
تحقق این شرط مقیاس پذیری برای طیف وسیعی از سیستم ها امکان پذیر است. با این حال، استفاده از تصحیح خطا هزینه افزایش بسیار زیادی از کیوبیت های مورد نیاز را به همراه دارد. عدد مورد نیاز برای فاکتورسازی اعداد صحیح با استفاده از الگوریتم Shor هنوز چند جملهای است و گمان میرود بین L و L 2 باشد . الگوریتم های تصحیح خطا این رقم را با ضریب L افزایش می دهد . برای یک عدد 1000 بیتی، این به معنای نیاز به حدود 10 4 بیت بدون تصحیح خطا است. [105] با تصحیح خطا، این رقم به حدود 10 7 بیت افزایش می یابد. زمان محاسبه حدود L 2 یا حدود 107 گام و در 1 مگاهرتز، حدود 10 ثانیه است. با این حال، سربار رمزگذاری و تصحیح خطا، اندازه یک کامپیوتر کوانتومی متحمل خطا را با چندین مرتبه بزرگی افزایش میدهد. برآوردهای دقیق [106] [107] نشان میدهد که حداقل 3 میلیون کیوبیت فیزیکی در 5 ماه یک عدد صحیح 2048 بیتی را در یک کامپیوتر کوانتومی یونی به دام افتاده با خطای تصحیح شده کاملاً فاکتور میکند. از نظر تعداد کیوبیت های فیزیکی، تا به امروز، این کمترین برآورد [108] برای مسئله فاکتورسازی اعداد صحیح عملا مفید با اندازه 1024 بیتی یا بزرگتر است.
روش دیگر برای مسئله پایداری- ناهمدوسی، ایجاد یک کامپیوتر کوانتومی توپولوژیکی با آنیونها ، شبه ذرات مورد استفاده به عنوان رشتهها، و تکیه بر نظریه braid برای تشکیل گیتهای منطقی پایدار است. [109] [110]
برتری کوانتومی [ ویرایش ]
فیزیکدان جان پرسکیل اصطلاح برتری کوانتومی را برای توصیف شاهکار مهندسی نشان دادن این که یک دستگاه کوانتومی قابل برنامه ریزی می تواند مشکلی فراتر از توانایی های کامپیوترهای کلاسیک پیشرفته را حل کند، ابداع کرد. [111] [112] [113] مشکل لازم نیست مفید باشد، بنابراین برخی تست برتری کوانتومی را تنها به عنوان یک معیار بالقوه آینده میدانند. [114]
در اکتبر 2019، Google AI Quantum، با کمک ناسا، اولین کسی شد که ادعا کرد با انجام محاسبات روی رایانه کوانتومی Sycamore بیش از 3000000 برابر سریعتر از آنچه در Summit انجام می شود ، به برتری کوانتومی دست یافته است. کامپیوتر. [29] [115] [116] این ادعا متعاقباً به چالش کشیده شد: IBM بیان کرده است که Summit میتواند نمونهها را بسیار سریعتر از آنچه ادعا میشود انجام دهد، [117] [118] و از آن زمان محققان الگوریتمهای بهتری را برای مسئله نمونهگیری که برای ادعای کوانتومی استفاده میشود توسعه دادهاند. برتری، کاهش قابل توجهی در شکاف بین Sycamore و ابررایانه های کلاسیک [119] [120] [121] و حتی شکست دادن آن. [122] [123] [124]
در دسامبر 2020، گروهی در USTC برای نشان دادن برتری کوانتومی ، نوعی نمونهبرداری از بوزون را روی 76 فوتون با یک کامپیوتر کوانتومی فوتونیک به نام Jiuzhang اجرا کردند . [125] [126] [127] نویسندگان ادعا می کنند که یک ابر رایانه کلاسیک معاصر به زمان محاسباتی 600 میلیون سال نیاز دارد تا تعداد نمونه هایی را که پردازنده کوانتومی آنها می تواند در 20 ثانیه تولید کند تولید کند. [128]
ادعاهای برتری کوانتومی باعث ایجاد هیاهو در مورد محاسبات کوانتومی شده است، [129] اما آنها بر اساس وظایف محک ساخته شده ای هستند که مستقیماً کاربردهای مفید دنیای واقعی را نشان نمی دهند. [94] [130]
شک و تردید [ ویرایش ]
علیرغم امیدهای زیاد به محاسبات کوانتومی، پیشرفت قابل توجه در سخت افزار و خوش بینی در مورد برنامه های کاربردی آینده، یک مقاله نورافکن Nature در سال 2023 ، رایانه های کوانتومی فعلی را به عنوان «در حال حاضر، [برای] مطلقاً هیچ چیز [خوب]» خلاصه کرد. [94] مقاله توضیح داد که کامپیوترهای کوانتومی هنوز در هر صورت مفیدتر یا کارآمدتر از کامپیوترهای معمولی نیستند، اگرچه همچنین استدلال میکرد که در درازمدت چنین رایانههایی احتمالاً مفید هستند. یک مقاله ACM در سال 2023 [95] نشان داد که الگوریتمهای محاسباتی کوانتومی فعلی "برای مزیت کوانتومی عملی بدون پیشرفتهای قابل توجه در پشته نرمافزار/سختافزار کافی نیستند". این استدلال میکند که امیدوارکنندهترین نامزدها برای دستیابی به سرعت با رایانههای کوانتومی «مشکلات دادههای کوچک» هستند، برای مثال در شیمی و علم مواد. با این حال، مقاله همچنین نتیجه می گیرد که طیف وسیعی از برنامه های کاربردی بالقوه ای که در نظر گرفته است، مانند یادگیری ماشین، "در آینده قابل پیش بینی با الگوریتم های کوانتومی فعلی به مزیت کوانتومی دست پیدا نخواهند کرد" و محدودیت های ورودی/خروجی را شناسایی کرد که افزایش سرعت را بعید می کند. "مشکلات کلان داده، سیستم های خطی بدون ساختار، و جستجوی پایگاه داده بر اساس الگوریتم گروور".
این وضعیت را می توان در چندین ملاحظات جاری و بلندمدت دنبال کرد.
- سخت افزار و الگوریتم های معمولی رایانه نه تنها برای کارهای عملی بهینه شده اند، بلکه همچنان به سرعت در حال بهبود هستند، به ویژه شتاب دهنده های GPU .
- سخت افزار محاسباتی کوانتومی کنونی قبل از غرق شدن در نویز، تنها مقدار محدودی درهم تنیدگی ایجاد می کند.
- الگوریتمهای کوانتومی فقط برای برخی کارها سرعت بیشتری نسبت به الگوریتمهای معمولی ارائه میکنند و تطبیق این وظایف با کاربردهای عملی چالش برانگیز است. برخی از وظایف و برنامه های کاربردی امیدوارکننده به منابعی بسیار فراتر از آنچه امروز در دسترس است نیاز دارند. [131] [132] به ویژه، پردازش مقادیر زیادی از داده های غیرکوانتومی یک چالش برای کامپیوترهای کوانتومی است. [95]
- برخی از الگوریتمهای امیدوارکننده «دکوانتیزهشده» شدهاند، یعنی آنالوگهای غیرکوانتومی آنها با پیچیدگی مشابه پیدا شدهاند.
- اگر تصحیح خطای کوانتومی برای مقیاسسازی رایانههای کوانتومی به کاربردهای عملی استفاده شود، سربار آن ممکن است سرعت ارائه شده توسط بسیاری از الگوریتمهای کوانتومی را تضعیف کند. [95]
- تحلیل پیچیدگی الگوریتمها گاهی اوقات مفروضات انتزاعی ایجاد میکند که در کاربردها صادق نیستند. برای مثال، دادههای ورودی ممکن است از قبل به صورت کدگذاری شده در حالتهای کوانتومی در دسترس نباشند، و «توابع اوراکل» که در الگوریتم گروور استفاده میشوند ، اغلب ساختار داخلی دارند که میتوانند برای الگوریتمهای سریعتر مورد سوء استفاده قرار گیرند.
به طور خاص، ساختن کامپیوترهایی با تعداد زیادی کیوبیت ممکن است بیهوده باشد، اگر آن کیوبیت ها به اندازه کافی به هم متصل نباشند و نتوانند درجه درهم تنیدگی کافی را برای مدت طولانی حفظ کنند. محققان محاسبات کوانتومی هنگام تلاش برای برتری بر رایانههای معمولی، اغلب به دنبال کارهای جدیدی هستند که میتوان آنها را در رایانههای کوانتومی حل کرد، اما این امکان را ایجاد میکند که تکنیکهای غیرکوانتومی کارآمد در پاسخ، همانطور که برای نمایش برتری کوانتومی دیده میشود، ایجاد شود . بنابراین، مطلوب است که مرزهای پایینتر در پیچیدگی بهترین الگوریتمهای غیرکوانتومی ممکن (که ممکن است ناشناخته باشند) ثابت شود و نشان داده شود که برخی از الگوریتمهای کوانتومی بدون علامت بر روی آن مرزها بهبود مییابند.
برخی از محققین نسبت به ساخت کامپیوترهای کوانتومی مقیاس پذیر ابراز تردید کرده اند، معمولاً به دلیل مسئله حفظ انسجام در مقیاس های بزرگ، اما به دلایل دیگر.
بیل اونرو در مقاله ای که در سال 1994 منتشر شد، در مورد عملی بودن رایانه های کوانتومی تردید داشت . [133] پل دیویس استدلال کرد که یک رایانه 400 کیوبیتی حتی با اطلاعات کیهانی که توسط اصل هولوگرافیک مستلزم آن است، در تضاد خواهد بود . [134] شکاکانی مانند گیل کالای تردید دارند که برتری کوانتومی هرگز حاصل شود. [135] [136] [137] فیزیکدان میخائیل دیاکونوف شک و تردید را نسبت به محاسبات کوانتومی به شرح زیر بیان کرده است:
بنابراین تعداد پارامترهای پیوسته ای که وضعیت چنین کامپیوتر کوانتومی مفیدی را در هر لحظه توصیف می کنند باید ... حدود 10 300 باشد ... آیا می توانیم یاد بگیریم که بیش از 10 300 پارامتر متغیر پیوسته را که وضعیت کوانتومی را تعریف می کنند، کنترل کنیم. چنین سیستمی؟ پاسخ من ساده است. نه، هرگز. » [138] [139]