از ویکیپدیا، دانشنامه آزاد

نمونه مدل شبکه عصبی پیشخور. برای یک شبکه یادگیری عمیق، تعداد لایه های پنهان را افزایش دهید.

شبکه های عصبی کوانتومی مدل های شبکه عصبی محاسباتی هستند که بر اساس اصول مکانیک کوانتومی بنا شده اند . اولین ایده ها در مورد محاسبات عصبی کوانتومی به طور مستقل در سال 1995 توسط Subhash Kak و Ron Chrisley منتشر شد . با این حال، تحقیقات معمولی در شبکه‌های عصبی کوانتومی شامل ترکیب مدل‌های شبکه عصبی مصنوعی کلاسیک (که به طور گسترده در یادگیری ماشین برای وظیفه مهم تشخیص الگو استفاده می‌شوند) با مزایای اطلاعات کوانتومی به منظور توسعه الگوریتم‌های کارآمدتر است. [3] [4] [5] یکی از انگیزه‌های مهم برای این تحقیقات، دشواری آموزش شبکه‌های عصبی کلاسیک، به‌ویژه در کاربردهای کلان داده است . امید این است که ویژگی‌های محاسبات کوانتومی مانند موازی‌سازی کوانتومی یا اثرات تداخل و درهم‌تنیدگی بتوان به عنوان منابع استفاده کرد. از آنجایی که پیاده‌سازی فناوری یک کامپیوتر کوانتومی هنوز در مرحله نابهنگام است، چنین مدل‌های شبکه عصبی کوانتومی عمدتاً پیشنهادات نظری هستند که منتظر اجرای کامل آنها در آزمایش‌های فیزیکی هستند.

اکثر شبکه های عصبی کوانتومی به عنوان شبکه های پیشخور توسعه داده می شوند . این ساختار مانند نمونه های کلاسیک خود، ورودی یک لایه کیوبیت را دریافت می کند و آن ورودی را به لایه دیگری از کیوبیت ها منتقل می کند. این لایه کیوبیت این اطلاعات را ارزیابی کرده و خروجی را به لایه بعدی منتقل می کند. در نهایت مسیر به لایه نهایی کیوبیت ها منتهی می شود. [6] [7] لایه‌ها نباید دارای عرض یکسان باشند، به این معنی که لازم نیست تعداد کیوبیت‌های لایه قبل یا بعد از آن را داشته باشند. این ساختار آموزش دیده است که در کدام مسیر مشابه شبکه های عصبی مصنوعی کلاسیک باید طی کند . در بخش پایین تر به این موضوع پرداخته شده است. شبکه های عصبی کوانتومی به سه دسته مختلف اشاره می کنند: کامپیوتر کوانتومی با داده های کلاسیک، کامپیوتر کلاسیک با داده های کوانتومی و کامپیوتر کوانتومی با داده های کوانتومی. [6]

مثالها [ ویرایش ]

تحقیقات شبکه‌های عصبی کوانتومی هنوز در مراحل اولیه است و مجموعه‌ای از پیشنهادات و ایده‌ها با دامنه و دقت ریاضی متفاوت ارائه شده‌اند. بسیاری از آنها بر اساس ایده جایگزینی نورون‌های کلاسیک باینری یا مک‌کالوخ-پیتس با یک کیوبیت (که می‌توان آن را «کورون» نامید) استوار است، که منجر به ایجاد واحدهای عصبی می‌شود که می‌توانند در حالت برهم‌نهی حالت شلیک و استراحت باشند. '.

پرسپترون های کوانتومی [ ویرایش ]

بسیاری از پیشنهادها تلاش می کنند تا معادل کوانتومی برای واحد پرسپترون که شبکه های عصبی از آن ساخته می شوند، بیابند. یک مشکل این است که توابع فعال سازی غیرخطی بلافاصله با ساختار ریاضی نظریه کوانتومی مطابقت ندارند، زیرا یک تکامل کوانتومی با عملیات خطی توصیف می شود و منجر به مشاهده احتمالی می شود. ایده‌هایی برای تقلید تابع فعال‌سازی پرسپترون با فرمالیسم مکانیکی کوانتومی از اندازه‌گیری‌های ویژه [8] [9] به فرض عملگرهای کوانتومی غیرخطی (یک چارچوب ریاضی که مورد بحث است) می‌رسد. [10] [11] اجرای مستقیم تابع فعال سازی با استفاده از مدل مبتنی بر مدار محاسبات کوانتومی اخیراً توسط Schuld، Sinayskiy و Petruccione بر اساس الگوریتم تخمین فاز کوانتومی ارائه شده است . [12]

شبکه های کوانتومی [ ویرایش ]

در مقیاس بزرگتر، محققان تلاش کرده اند شبکه های عصبی را به تنظیمات کوانتومی تعمیم دهند. یکی از راه‌های ساختن یک نورون کوانتومی این است که ابتدا نورون‌های کلاسیک را تعمیم دهیم و سپس آنها را برای ساخت دروازه‌های واحد تعمیم دهیم. برهمکنش‌های بین نورون‌ها را می‌توان به صورت کوانتومی، با دروازه‌های واحد ، یا به‌طور کلاسیک، از طریق اندازه‌گیری حالت‌های شبکه کنترل کرد. این تکنیک نظری سطح بالا را می توان به طور گسترده با در نظر گرفتن انواع مختلف شبکه ها و پیاده سازی های مختلف نورون های کوانتومی، مانند نورون های پیاده سازی شده فوتونیکی [7] [13] و پردازنده مخزن کوانتومی (نسخه کوانتومی محاسبات مخزن) به کار برد . [14] اکثر الگوریتم های یادگیری از مدل کلاسیک آموزش شبکه عصبی مصنوعی برای یادگیری تابع ورودی-خروجی یک مجموعه آموزشی معین پیروی می کنند و از حلقه های بازخورد کلاسیک برای به روز رسانی پارامترهای سیستم کوانتومی استفاده می کنند تا زمانی که به یک پیکربندی بهینه همگرا شوند. یادگیری به عنوان یک مسئله بهینه سازی پارامتر نیز توسط مدل های آدیاباتیک محاسبات کوانتومی مورد توجه قرار گرفته است. [15]

شبکه‌های عصبی کوانتومی را می‌توان برای طراحی الگوریتمی به کار برد: با توجه به کیوبیت‌هایی با برهمکنش‌های متقابل قابل تنظیم، می‌توان تلاش کرد تا برهمکنش‌ها را با پیروی از قانون انتشار پس‌پشتی کلاسیک از یک مجموعه آموزشی از روابط ورودی-خروجی دلخواه، که به عنوان رفتار الگوریتم خروجی مطلوب در نظر گرفته می‌شود، یاد بگیرد. [16] [17] بنابراین شبکه کوانتومی یک الگوریتم را "یاد می گیرد".

حافظه انجمنی کوانتومی [ ویرایش ]

اولین الگوریتم حافظه انجمنی کوانتومی توسط دن ونتورا و تونی مارتینز در سال 1999 معرفی شد. [18] نویسندگان تلاشی برای ترجمه ساختار مدل‌های شبکه عصبی مصنوعی به نظریه کوانتومی ندارند، اما الگوریتمی را برای یک کامپیوتر کوانتومی مبتنی بر مدار پیشنهاد می‌کنند. حافظه انجمنی را شبیه سازی می کند . حالات حافظه (در شبکه‌های عصبی هاپفیلد که در وزن اتصالات عصبی ذخیره می‌شوند) در یک برهم‌نهی نوشته می‌شوند و یک الگوریتم جستجوی کوانتومی گروور مانند نزدیک‌ترین حالت حافظه به ورودی داده شده را بازیابی می‌کند. به این ترتیب، این یک حافظه کاملاً قابل آدرس دهی محتوا نیست، زیرا فقط الگوهای ناقص را می توان بازیابی کرد.

اولین حافظه کوانتومی واقعاً قابل آدرس دهی محتوا، که می تواند الگوها را نیز از ورودی های خراب بازیابی کند، توسط کارلو تروگنبرگر پیشنهاد شد. [19] [20] [21] هر دو حافظه می‌توانند تعداد نمایی (بر حسب n کیوبیت) از الگوها را ذخیره کنند، اما به دلیل قضیه عدم شبیه‌سازی و تخریب آن‌ها پس از اندازه‌گیری، فقط یک بار می‌توان از آنها استفاده کرد.

تروگنبرگر، [20] با این حال، نشان داده است که مدل احتمالاتی او از حافظه تداعی کوانتومی را می توان به طور کارآمد پیاده سازی کرد و چندین بار برای هر تعداد چند جمله ای از الگوهای ذخیره شده دوباره استفاده کرد، که یک مزیت بزرگ با توجه به حافظه های انجمنی کلاسیک است.

شبکه های عصبی کلاسیک با الهام از نظریه کوانتومی [ ویرایش ]

مقدار قابل توجهی به یک مدل "الهام گرفته از کوانتومی" که از ایده های نظریه کوانتومی برای پیاده سازی یک شبکه عصبی مبتنی بر منطق فازی استفاده می کند، داده شده است . [22]

آموزش [ ویرایش ]

شبکه‌های عصبی کوانتومی را می‌توان از نظر تئوری مشابه آموزش شبکه‌های عصبی کلاسیک/مصنوعی آموزش داد. یک تفاوت کلیدی در ارتباط بین لایه های یک شبکه عصبی نهفته است. برای شبکه های عصبی کلاسیک، در پایان یک عملیات معین، پرسپترون فعلی خروجی خود را به لایه بعدی پرسپترون(های) شبکه کپی می کند. با این حال، در یک شبکه عصبی کوانتومی، که در آن هر پرسپترون یک کیوبیت است، این قضیه قضیه عدم شبیه‌سازی را نقض می‌کند . [6] [23] یک راه‌حل تعمیم‌یافته پیشنهادی برای این، جایگزینی روش fan-out کلاسیک با یک واحد دلخواه است که خروجی یک کیوبیت را به لایه بعدی کیوبیت پخش می‌کند، اما کپی نمی‌کند. با استفاده از این فن-اوت واحد ({\displaystyle U_{f}}) با یک کیوبیت حالت ساختگی در یک حالت شناخته شده (مثال.|0〉{\displaystyle |0\rangle }در مبنای محاسباتی )، که به عنوان بیت Ancilla نیز شناخته می شود ، اطلاعات کیوبیت را می توان به لایه بعدی کیوبیت منتقل کرد. [7] این فرآیند به الزامات عملیات کوانتومی برگشت پذیری پایبند است . [7] [24]

با استفاده از این شبکه پیشخور کوانتومی، شبکه های عصبی عمیق را می توان به طور موثر اجرا و آموزش داد. یک شبکه عصبی عمیق اساساً شبکه ای با لایه های پنهان بسیاری است، همانطور که در مدل نمونه شبکه عصبی بالا مشاهده می شود. از آنجایی که شبکه عصبی کوانتومی مورد بحث از عملگرهای واحد fan-out استفاده می کند، و هر اپراتور فقط بر روی ورودی مربوطه خود عمل می کند، در هر زمان معین فقط از دو لایه استفاده می شود. [6] به عبارت دیگر، هیچ اپراتور Unitary در کل شبکه در هر زمان معینی عمل نمی کند، به این معنی که تعداد کیوبیت های مورد نیاز برای یک مرحله معین به تعداد ورودی های یک لایه معین بستگی دارد. از آنجایی که کامپیوترهای کوانتومی به دلیل توانایی خود در اجرای چندین تکرار در مدت زمان کوتاه بدنام هستند، کارایی یک شبکه عصبی کوانتومی صرفاً به تعداد کیوبیت‌ها در هر لایه معین بستگی دارد و نه به عمق شبکه. [24]

توابع هزینه [ ویرایش ]

برای تعیین اثربخشی یک شبکه عصبی، از تابع هزینه استفاده می شود که اساساً نزدیکی خروجی شبکه به خروجی مورد انتظار یا مطلوب را اندازه گیری می کند. در یک شبکه عصبی کلاسیک، وزن های ({\displaystyle w}) و تعصبات (ب{\displaystyle b}) در هر مرحله نتیجه تابع هزینه را تعیین کنید{\displaystyle C(w,b)}. [6] هنگام آموزش یک شبکه عصبی کلاسیک، وزن‌ها و بایاس‌ها پس از هر تکرار تنظیم می‌شوند و معادله 1 در زیر داده می‌شود.{\displaystyle y(x)} خروجی مورد نظر است وآبیرون{\displaystyle a^{\text{out}}(x)} خروجی واقعی است، تابع هزینه زمانی که بهینه می شود{\displaystyle C(w,b)}. برای یک شبکه عصبی کوانتومی، تابع هزینه با اندازه گیری وفاداری وضعیت نتیجه تعیین می شود (بیرون{\displaystyle \rho ^{\text{out}}}) با وضعیت نتیجه مطلوب (بیرون{\displaystyle \phi ^{\text{out}}}) در معادله 2 زیر مشاهده می شود. در این مورد، عملگرهای Unitary پس از هر تکرار تنظیم می شوند و تابع هزینه زمانی که C = 1 بهینه می شود. [6]

معادله2 {\displaystyle C(w,b)={1 \over N}\sum _{x}{||y(x)-a^{\text{out}}(x)||  \ بیش از 2}}
معادله 2{\displaystyle C={1 \over N}\sum _{x}^{N}{\langle \phi ^{\text{out}}|\rho ^{\text{out}}|\phi ^{ \text{out}}\rangle }}

همچنین ببینید [ ویرایش ]

  • برنامه نویسی متفاوت
  • شبکه عصبی نوری
  • حافظه تداعی هولوگرافیک
  • شناخت کوانتومی
  • یادگیری ماشین کوانتومی

منبع

https://en.wikipedia.org/wiki/Quantum_neural_network