شبکه های عصبی کوانتومی ویرایش ]

مقاله اصلی: شبکه عصبی کوانتومی

آنالوگ های کوانتومی یا تعمیم شبکه های عصبی کلاسیک اغلب به عنوان شبکه های عصبی کوانتومی شناخته می شوند . این اصطلاح توسط طیف گسترده ای از رویکردها از جمله پیاده سازی و گسترش شبکه های عصبی با استفاده از فوتون ها ، مدارهای متغیر لایه ای یا مدل های کوانتومی ایزینگ از نوع ادعا شده است. شبکه های عصبی کوانتومی غالباً به عنوان توسعه مدل دویچ از شبکه محاسباتی کوانتومی تعریف می شوند. [61] در این مدل ، دروازه های غیرخطی و برگشت ناپذیر ، متفاوت از اپراتور همیلتون ، برای گمانه زنی مجموعه داده های داده شده مستقر می شوند. [61] چنین دروازه هایی باعث می شوند که مراحل خاصی مشاهده نشوند و نوسانات خاصی ایجاد کنند. [61]شبکه های عصبی کوانتومی اطلاعات کوانتومی و محاسبات کوانتومی اصول را برای سیستم های عصبی کلاسیک بکار می برند. [62] تحقیقات فعلی نشان می دهد که QNN می تواند به صورت تصاعدی میزان توان محاسباتی و میزان آزادی را برای یک کامپیوتر افزایش دهد ، که برای یک کامپیوتر کلاسیک به اندازه آن محدود است. [62] یک شبکه عصبی کوانتومی دارای قابلیت های محاسباتی برای کاهش تعداد مراحل ، کوبیت های مورد استفاده و زمان محاسبه است. [61]عملکرد موج به مکانیک کوانتومی نورون برای شبکه های عصبی است. برای آزمایش کاربردهای کوانتومی در یک شبکه عصبی ، مولکول های کوانتومی نقطه بر روی بستر GaAs یا مشابه آنها قرار می گیرند تا نحوه ارتباط آنها با یکدیگر را ضبط کنند. هر نقطه کوانتومی را می توان جزیره ای از فعالیت الکتریکی نامید و هنگامی که چنین نقاط به اندازه کافی نزدیک باشند (تقریباً 10 ± 20 نانومتر) الکترون ها [63] می توانند در زیر جزایر تونل شوند. توزیع یکنواخت در زیر لایه در مجموعه های دو قطبی ایجاد می کند و در نهایت دو حالت چرخش ، بالا یا پایین. این ایالات معمولاً به عنوان qubits با حالتهای مربوط شناخته می شوند| 0 \ rangle  و | 1 \ زنگ زد در نماد دیراک. [63]

مدلهای پنهان کوانتومی مارکوف ویرایش ]

مدلهای پنهان کوانتومی مارکوف [64] (HQMMs) یک نسخه کوانتومی پیشرفته از مدلهای کلاسیک مارکوف پنهان (HMMs) است که به طور معمول برای مدل سازی داده های متوالی در زمینه های مختلف مانند روباتیک و پردازش زبان طبیعی استفاده می شود . برخلاف رویکرد سایر الگوریتم های یادگیری ماشین کوانتومی افزایش یافته ، HQMM ها را می توان به عنوان مدلهایی با الهام از مکانیک کوانتومی مشاهده کرد که در رایانه های کلاسیک نیز قابل اجرا است. [65] در حالی که HMM های کلاسیک از ناقلهای احتمالی برای نشان دادن حالتهای باور پنهان استفاده می کنند ، HQMM ها از آنالوگ کوانتومی استفاده می کنند: ماتریسهای چگالی. کار اخیر نشان داده است که با استفاده از بهینه سازی کلاسیک ، می توان این مدل ها را با موفقیت فراخوانی کرد و برخی از شواهد تجربی نیز وجود دارد که این مدل ها می توانند داده های پی در پی را در مقایسه با HMM های کلاسیک در عمل بهتر مدل سازی کنند ، اگرچه کار بیشتر است. لازم است تا دقیقاً مشخص شود که این مزایا چگونه و چگونه به دست می آیند. [65] علاوه بر این ، از آنجا که HMM های کلاسیک نوع خاصی از شبکه Bayes هستند ، جنبه هیجان انگیز HQMM این است که تکنیک های مورد استفاده نشان می دهد که چگونه می توانیم استنتاج بیزی کوانتومی را انجام دهیم ، که باید ساخت کلی نسخه های کوانتومی احتمالی را انجام دهد. مدل های گرافیکی . [65]

یادگیری ماشین کاملاً کوانتومی ویرایش ]

در عمومی ترین مورد یادگیری ماشین کوانتومی ، هر دو دستگاه یادگیری و سیستم مورد بررسی و همچنین تعامل آنها کاملاً کوانتومی است. در این بخش چند نمونه از نتایج در مورد این موضوع آورده شده است.

یک طبقه از مشکلاتی که می تواند از رویکرد کاملاً کوانتومی بهره مند شود ، «یادگیری» حالت های کوانتومی ناشناخته ، فرایندها یا اندازه گیری ها است ، به این معنا که فرد می تواند بعداً آنها را در سیستم کوانتومی دیگری تولید کند. به عنوان مثال ، ممکن است کسی بخواهد یک اندازه گیری را بیاموزد که بین دو حالت منسجم تمایز قایل شود ، با توجه به این که توصیف کلاسیک از ایالات به صورت تبعیض آمیز نیست ، بلکه در عوض مجموعه ای از سیستم های کوانتومی به عنوان مثال تهیه شده در این حالت ها است. رویکرد ساده لوحانه این است که ابتدا یک توصیف کلاسیک از ایالات را استخراج کنیم و سپس یک اندازه گیری تمایزآمیز ایده آل را بر اساس این اطلاعات به کار گیریم. این فقط به یادگیری کلاسیک نیاز دارد. با این حال ، می توان نشان داد که یک رویکرد کاملاً کوانتومی در این مورد کاملاً برتر است. [66] (این همچنین به کار بر روی تطبیق الگوی کوانتومی مربوط می شود.[67] ) مشکل یادگیری تحولات واحدی را می توان به روشی مشابه نزدیک کرد. [68]

فراتر از مشکل خاص حالتهای یادگیری و تحولات ، وظیفه خوشه بندی نیز یک نسخه کاملاً کوانتومی را می پذیرد ، در حالی که هر دو اوراکل که فاصله بین نقاط داده و دستگاه پردازش اطلاعات را که الگوریتم را اجرا می کند ، کوانتوم می کنند. [69] سرانجام ، یک چارچوب کلی که تحت نظارت ، عدم نظارت و یادگیری تقویتی در محیط کاملاً کوانتومی قرار دارد ، معرفی شد ، [29] که همچنین نشان داده شد که امکان کاوش در محیط در ابرشهرها سرعت یادگیری کوانتومی در یادگیری تقویت را امکان پذیر می کند.

یادگیری کلاسیک برای مشکلات کوانتومی اعمال می شود ویرایش ]

اطلاعات بیشتر: یادگیری ماشین در فیزیک

اصطلاح "یادگیری ماشین کوانتومی" گاهی به یادگیری ماشین کلاسیک انجام می شود که بر روی داده های سیستم های کوانتومی انجام می شود. یک نمونه اصلی از این توموگرافی حالت کوانتومی است که در آن حالت کوانتومی از اندازه گیری آموخته می شود. برنامه های دیگر شامل یادگیری همیلتون ها [70] و به طور خودکار آزمایش های کوانتومی هستند. [19]

نظریه یادگیری کوانتومی ویرایش ]

نظریه یادگیری کوانتومی تجزیه و تحلیل ریاضیاتی را در مورد کلیات کوانتومی مدل های یادگیری کلاسیک و سرعت های ممکن یا پیشرفت های دیگری که ممکن است ارائه دهد دنبال می کند. این چارچوب بسیار شبیه به نظریه یادگیری محاسباتی کلاسیک است ، اما یادگیرنده در این مورد یک دستگاه پردازش اطلاعات کوانتومی است ، در حالی که داده ها ممکن است کلاسیک یا کوانتومی باشند. تئوری یادگیری کوانتومی باید با یادگیری ماشین کوانتومی تقویت شده در بالا بحث شود ، جایی که هدف در نظر گرفتن مشکلات خاص و استفاده از پروتکل های کوانتومی برای بهبود پیچیدگی زمان الگوریتم های کلاسیک برای این مشکلات بود. اگرچه تئوری یادگیری کوانتومی هنوز در دست توسعه است ، اما نتایج جزئی در این جهت به دست آمده است. [71]

نقطه شروع تئوری یادگیری به طور معمول یک کلاس مفهوم است ، مجموعه ای از مفاهیم ممکن. معمولاً یک مفهوم تابعی است در برخی از دامنه ها ، مانند\ {0،1 \} ^ {n}. به عنوان مثال ، کلاس مفهوم می تواند مجموعه فرمول های منعطف فرم عادی (DNF) در بیت n یا مجموعه مدارهای بولی از عمق ثابت باشد. هدف برای یادگیرنده یادگیری (دقیقاً یا تقریباً) مفهوم هدف ناشناخته از این کلاس مفهوم است. یادگیرنده ممکن است به طور جدی با مفهوم هدف در تعامل باشد ، یا نمونه های انفعالی را از آن دریافت کند.

در یادگیری فعال ، یک یادگیرنده می تواند پرس و جوهای عضویت را به مفهوم هدف c بدست آورد ، و مقدار آن (x) را روی ورودی های x انتخاب شده توسط یادگیرنده بخواهد . سپس یادگیرنده مجبور است مفهوم هدف دقیق را با احتمال زیاد بازسازی کند. در الگوی یادگیری کوانتومی دقیق ، یادگیرنده می تواند در ابراز کوانتومی نمایش داده شد. اگر پیچیدگی یادگیرنده با تعداد درخواستهای عضویت سنجیده شده سنجیده شود ، آنگاه فراگیران دقیق کوانتومی می توانند از نظر زبان آموزان کلاسیک برای برخی از کلاسهای مفهومی کارآمد تر باشند ، اما نه بیشتر. [72] اگر پیچیدگی با مقدار زمان اندازه گیری شودیادگیرنده استفاده می کند ، سپس کلاس های مفهومی وجود دارد که توسط یادگیرندگان کوانتومی می توانند به طور مؤثر آموخته شوند اما نه توسط یادگیرندگان کلاسیک (با فرضیات پیچیده-نظری قابل قبول). [72]

یک الگوی طبیعی یادگیری منفعل ، یادگیری تقریباً صحیح (PAC) از Valiant است . در اینجا یادگیرنده نمونه های تصادفی (x، c (x)) را دریافت می کند ، جایی که x طبق برخی توزیع ناشناخته D توزیع می شود . هدف یادگیرنده خروجی یک عملکرد فرضیه h است به گونه ای که x (x) = c (x) با احتمال زیاد وقتی x مطابق D ترسیم می شود . یادگیرنده باید قادر به تولید چنین "تقریباً صحیح" ساعت برای هر D و هر مفهوم هدف c باشددر کلاس مفهوم خود می توانیم نمونه های تصادفی را با مثال های کوانتومی قوی تر جایگزین کنیم\ displaystyle \ sum _ {x} {\ sqrt {D (x)} | x، c (x) \ rangle. در مدل PAC (و مدل آگونیستیک مربوط) ، این تعداد نمونه های مورد نیاز را به میزان قابل توجهی کاهش نمی دهد: برای هر کلاس مفهومی ، پیچیدگی نمونه کلاسیک و کوانتومی تا عوامل ثابت یکسان است. [73] با این حال ، برای یادگیری در زیر توزیع ثابت D ، مثالهای کوانتومی می توانند بسیار مفید باشند ، به عنوان مثال برای یادگیری DNF تحت توزیع یکنواخت. [74] هنگام در نظر گرفتن پیچیدگی زمان ، کلاس های مفهومی وجود دارند که می توانند با یادگیری کوانتومی به طور مؤثر آموخته شوند PAC ، حتی از نمونه های کلاسیک ، اما نه توسط یادگیرندگان کلاسیک (دوباره ، تحت فرضیات پیچیده-نظری قابل قبول). [72]

این نوع یادگیری منفعل همچنین رایج ترین طرح در یادگیری نظارت شده است: یک الگوریتم یادگیری به طور معمول نمونه های آموزش را ثابت می کند ، بدون این که توانایی پرس و جو از برچسب نمونه های بدون مجوز را داشته باشد. خروج یک فرضیه h یک مرحله القاء است. از نظر كلاسیك ، الگوی القایی در مرحله تمرینی و فاز كارآزمایی تقسیم می شود: پارامترهای مدل در مرحله آموزش تخمین زده می شوند و مدل آموخته شده بارها و بارها در مرحله كاربرد اعمال می شود. در حد بدون علامت تعداد برنامه ها ، این تقسیم مراحل نیز با منابع کوانتومی موجود است. [75]

پیاده سازی ها و آزمایش ها ویرایش ]

اولین آزمایش با استفاده از بی دررو انجام شد شرکت D-Wave کامپیوتر کوانتومی، برای مثال، برای تشخیص خودرو در تصاویر دیجیتال با استفاده از منظم و تقویت با یک تابع هدف غیر محدب در یک تظاهرات در سال 2009. [76] بسیاری از آزمایش های به دنبال در همان معماری و منجر شرکت های فن آوری علاقه ای به پتانسیل یادگیری ماشین کوانتومی برای اجرای فناوری های آینده نشان داده اند. در سال 2013 ، تحقیقات گوگل ، ناسا و انجمن تحقیقات فضایی دانشگاه ها آزمایشگاه هوش مصنوعی کوانتوم را راه اندازی کردند که به استفاده از رایانه کوانتومی D-Wave adiabatic می پردازد. [77] [78]یک نمونه جدیدتر ، مدلهای تولیدی احتمالی را با اتصال جفت شده دلخواه آموزش داده است ، نشان می دهد که مدل آنها قادر به تولید ارقام دستنویس و همچنین بازسازی تصاویر پر سر و صدا از میله ها و نوارها و رقم های دست نویس است. [53]

در سال 2009 با استفاده از فن آوری پخت و پز متفاوت بر اساس رزونانس مغناطیسی هسته ای (NMR) ، یک شبکه کوانتومی هاپفیلد اجرا شد که داده های ورودی و داده های به یاد ماندنی را برای همیلتون ها نقشه برداری کرد و امکان استفاده از محاسبات کوانتومی ادیاباتیک را فراهم می آورد. [79] فناوری NMR همچنین محاسبات کوانتومی جهانی را امکان پذیر می کند ، [برای استناد به نیاز ] و از آن برای اولین بار در اجرای آزمایشی یک ماشین بردار پشتیبانی کوانتومی استفاده می شود تا شماره های نوشته شده «6» و «9» را بر روی یک کامپیوتر کوانتومی حالت مایع تشخیص دهد. 2015. [80]داده های آموزش شامل پردازش قبل از تصویر بود که آنها را به ناقلهای دو بعدی عادی ترسیم می کرد تا تصاویر را به عنوان حالت یک qubit نشان دهد. دو مدخل بردار نسبت عمودی و افقی از شدت پیکسل تصویر است. پس از تعیین بردارها بر روی فضای ویژگی ، ماشین بردار پشتیبانی کوانتومی برای طبقه بندی بردار ورودی ناشناخته پیاده سازی شد. این مطالعه با خواندن حالت نهایی از نظر جهت (بالا / پایین) سیگنال NMR ، از توموگرافی کوانتومی پرهزینه جلوگیری می کند .

پیاده سازی فوتونیک توجه بیشتری را به خود جلب می کند ، [81] کمترین توجه را نمی کند زیرا نیازی به خنک کننده گسترده ندارند. پیش بینی رقم همزمان بلندگو و تشخیص بلندگو و پیش بینی سریال هرج و مرج با سرعت داده های بالاتر از 1 گیگابایت در ثانیه در سال 2013 نشان داده شد. [82] با استفاده از فوتونیک های غیرخطی برای اجرای یک طبقه بندیگر خطی تمام نوری ، یک مدل پرسپترون قادر به یادگیری بود. طبقه بندی به طور تکرار از داده های آموزش از طریق یک قانون بازخورد. [83] یک ساختمان اصلی ساختاری در بسیاری از الگوریتم های یادگیری محاسبه فاصله بین دو بردار است: این نخستین بار در سال 2015 با استفاده از قطب های درهم پیچیده در یک کامپیوتر کوانتومی فوتونی در هشت ابعاد به صورت تجربی نشان داده شد. [84]

به تازگی ، بر اساس یک رویکرد عصبی ، یک ماده جدید به زمینه یادگیری ماشین کوانتومی اضافه شده است ، در قالب یک ممیستور کوانتومی به اصطلاح ، یک مدل کمی از ممیستور کلاسیک استاندارد . [85] این دستگاه می تواند با استفاده از یک مقاومت قابل تنظیم ، اندازه گیری ضعیف روی سیستم و یک مکانیزم کلاسیک تغذیه به جلو ساخته شود. اجرای یک ممیستور کوانتومی در مدارهای ابررسانا پیشنهاد شده است ، [86] و آزمایشی با نقاط کوانتومی انجام شده است. [87] یک قطعه ساز کوانتومی تعامل غیر خطی را در دینامیک کوانتومی انجام می دهد که به جستجوی یک شبکه عصبی کوانتومی کاملاً کاربردی کمک می کند .

از سال 2016 ، IBM یک پلت فرم آنلاین مبتنی بر ابر را برای توسعه دهندگان نرم افزارهای کوانتومی با نام IBM Q Experience راه اندازی کرده است . این پلتفرم شامل چندین پردازنده کوانتومی کاملاً عملیاتی است که از طریق API وب IBM قابل دسترسی است. با انجام این کار ، شرکت سازندگان نرم افزار را ترغیب می کند الگوریتم های جدیدی را از طریق یک محیط توسعه با قابلیت های کوانتومی دنبال کنند. معماری های جدید با استفاده از روش های محاسبات کوانتومی به دام افتاده یونی و ابررسانا به صورت آزمایشی تا حداکثر 32 اسب بخار مورد کاوش قرار می گیرند.

در اکتبر سال 2019 ، خاطرنشان شد که معرفی ژنراتورهای Quantum Random Number (QRNGs) به مدلهای یادگیری ماشینی شامل شبکه های عصبی و شبکه های عصبی Convolutional برای توزیع وزن اولیه تصادفی و جنگلهای تصادفی برای تقسیم فرایندها در مقایسه با روش کلاسیک ژنراتورهای شماره Pseudorandom (PRNGs). [88]

منبع

https://en.wikipedia.org/wiki/Quantum_machine_learning