0

محاسبات کوانتومی چیست؟

محاسبات کوانتومی چیستی محاسبات کوانتومی محاسبه کوانتومی چیه کاربرد محاسبات کوانتومی کوانتوم و فیزیک محاسبات کوانتومی در فیزیک
ثبت شده 3 سال پیش توسط کوثر نازاریان ویرایش شده در 1400/3/12

می خوام بدونم محاسبات کوانتومی چیه و توی چه حیطه ای به کار برده میشه ممنون میشم راهنمایی کنید

محاسبات کوانتومی چیست؟

1 جواب

0
3 سال پیش توسط: کوثر نازاریان

محاسبات کوانتومی چیست؟

 

 

محاسبات کوانتومی به بخشی از تحقیقات علمی در زمینه کامپیوتر ها گفته می شود که بر روی توسعه کامپیوتر هایی بر مبنای نظریه کوانتوم که طبیعت و رفتار انرژی و ماده را در سطح کوانتومی (اتمی و زیراتمی) مورد بررسی قرار می دهد متمرکز شده است.

 

اختراع کامپیوتر های کوانتومی نمایانگر جهشی عظیم در توانایی پردازش کامپیوتر ها، چه نسبت به ساده ترین آن ها (Abacus) گرفته و چه نسبت به ابرکامپیوتر های مدرن خواهد بود و در واقع، میزان بهبود عملکرد کامپیوترهای کوانتومی نسبت به کامپیوتر های فعلی در محدوده میلیون ها برابر بهتر و حتی فراتر از آن قرار خواهد گرفت. کامپیوتر کوانتومی با پیروی از قوانین فیزیک کوانتومی توان پردازش عظیمی را به دست خواهد آورد. این بهبود عملکرد از طریق توانایی داشتن چندین حالت مختلف و انجام دستورات مختلف با استفاده از تمام جایگشت های ممکن در یک زمان واحد به دست می آید. مراکز فعلی تحقیق در زمینه کامپیوتر های کوانتومی شامل MIT،IBM، دانشگاه آکسفورد و آزمایشگاه ملی Los Alamos می باشند.

مبانی اصلی کامپیوتر های کوانتومی در سال 1981 توسط Paul Benioff که در آزمایشگاه های ملی Argonne کار می کرد ایجاد شد. او به طور نظری یک کامپیوتر کلاسیک را طراحی کرد که با برخی از اصول مکانیک کوانتومی کار می کرد. اما به طور کلی در جامعه علمی این باور وجود دارد که David Deutsch از دانشگاه آکسفورد انگیزه اصلی برای تحقیق در زمینه کامپیوتر های کوانتومی را ایجاد کرد. در سال 1984 او در یک کنفرانس نظریه محاسبات شرکت کرد و پس از آن به فکر طراحی کامپیوتر هایی افتاد که به صورت انحصاری از قوانین کوانتوم پیروی کنند. سپس چند ماه بعد او مقاله خود را به عنوان اولین مقاله در این زمینه منتشر کرد. با انتشار این مقاله رقابتی داغ برای بهره برداری از ایده های او به وجود آمد اما قبل از این که به بررسی موضوعی که او آغازگرش بود بپردازیم بهتر است تا نگاهی به پس زمینه دنیای کوانتوم داشته باشیم.

نظریه کوانتوم

توسعه نظریه کوانتوم در سال 1900 و با ارائه ای از سوی Max Planck به انجمن فیزیک آلمان آغاز شد. در این ارائه او این ایده را معرفی کرد که انرژی نیز مانند ماده از واحد های منفرد کوچکی تشکیل شده است ( که به آن ها کوانتا می گویند). در 30 سال بعد از آن، تحقیقات بیشتر توسط محققین متعدد منجر به درک فعلی ما از نظریه کوانتوم شد.

 

عناصر اصلی نظریه کوانتوم

  • انرژی نیز مانند ماده بیشتر از این که به شکل یک موج پیوسته باشد از واحد های گسسته ای تشکیل شده است.
  • ذرات بنیادین ماده و انرژی می توانند بسته به شرایط به شکل ذره ای یا موجی رفتار کنند.
  • حرکت ذرات بنیادین به صورت ذاتی تصادفی و در نتیجه غیرقابل پیش بینی است.
  • اندازه گیری هم زمان دو مقدار مکمل یکدیگر، مثلا موقعیت و تکانه ی یک ذره بنیادین به صورت ناگزیر ناقص خواهد بود. هر چقدر یک مقدار دقیق تر اندازه گیری شود اندازه گیری مقدار دیگر ناقص تر خواهد بود.

پیشرفت های بیشتر نظریه کوانتوم

نیلز بور تفسیر کپنهاگی نظریه کوانتوم را پیشنهاد کرد که تاکید می کند یک ذره همان چیزی است که اندازه گیری می شود( برای مثال یک موج یا یک ذره) اما تا زمانی که اندازه گیری انجام نگرفته باشد نمی توان برای آن خواص مشخصی در نظر گرفت یا حتی فرض کرد که وجود دارد. به طور خلاصه، بور می گفت که واقعیت عینی وجود ندارد. این مفهوم منجر به ایجاد اصلی به نام برهم نهی کوانتومی شد که ادعا می کند اگر چه ما نمی دانیم حالت هر شی چیست اما تا زمانی که به دنبال بررسی آن نباشیم شی در واقع به طور هم زمان در همه حالت های ممکن، وجود دارد.

برای به تصویر در آوردن این نظریه، می­توانیم از مقایسه معروف و نسبتا بی رحمانه­ ی گربه­ ی شرودینگر استفاده کنیم. اول این که ما یک گربه زنده داریم که آن را در یک جعبه سربی ضخیم قرار می دهیم. در این مرحله هیچ شکی وجود ندارد که گربه زنده است. سپس ما یک ظرف کوچک از سیانید به داخل جعبه پرتاب می کنیم و به طور کامل جعبه را می بندیم. در حال حاضر ما نمی دانیم که ایا گربه زنده است یا این که کپسول سیانید را شکسته و مرده است. با توجه به این که نمی دانیم، بنا به قانون کوانتوم و اصل بر هم نهی(جمع حالت های ممکن) گربه هم زنده است و هم مرده. تنها وقتی که جعبه را باز می کنیم و وضعیت گربه را بررسی می کنیم است که اصل بر هم نهی از بین می رود و گربه یا زنده است یا مرده.

تفسیر دوم نظریه کوانتوم، نظریه چند جهانی می باشد. این نظریه می گوید به محض این که برای هر شی این پتانسیل وجود داشته باشد که در هر حالتی باشد، جهان آن شی به مجموعه ای از جهان های موازی تغییر ماهیت می دهد که تعداد آن ها برابر تعداد حالت های ممکنی است که شی می تواند داشته باشد و هر کدام از این جهان ها شامل یکی از حالت های ممکن آن شی می شود. همچنین، مکانیزمی برای برهم کنش میان جهان ها وجود دارد که به نحوی اجازه می دهد تا همه حالت های ممکن در دسترس باشند و همه حالت های ممکن به طریقی تحت تاثیر قرار بگیرند. Stephen Hawking و Richard Feynman فقید از جمله دانشمندانی هستند که از این نظریه حمایت کرده اند.

مهم نیست که هر شخص کدام یک از این تفسیر ها را انتخاب می کند. این اصل که به طریقی یک ذره می تواند به طور همزمان در چندین حالت باشد پیامد های مهمی را برای علم رایانه ها در بر خواهد داشت.

مقایسه ای بین کامپیوترهای کوانتومی و کلاسیک

کامپیوترکلاسیک در بالاترین حد خود بر اصولی که به کمک جبر بولی بیان می شود تکیه می کند که (اغلب) با یک دروازه منطقی 7 حالته عمل می کند البته سه حالت نیز برای وجود این دروازه منطقی کافی است (And-Not-Copy). در هر نقطه ای از زمان، داده ها باید در حالت انحصاری دودویی (Binary) پردازش شوند که این به این معناست که دو مقدار صفر(خاموش/غلط) یا یک ( روشن/صحیح) ممکن است.این مقادیر ارقام دودویی یا بیت هستند. میلیون ها ترانزیستور یا خازن موجود در قلب کامپیوتر ها در هر زمان می توانند در یک حالت باشند. اگرچه زمانی که هر ترانزیستور یا خازن باید در حالت صفر یا یک باشد و سپس حالت خود را عوض کند امروزه به یک میلیاردم ثانیه رسیده هنوز هم برای این که این قطعات چقدر سریع می توانند حالت خود را عوض کنند محدودیت وجود دارد. هر چقدر که ما به سمت مدار های کوچک تر و سریع تر حرکت می کنیم به حدود فیزیکی مواد و نیز به حد قوانین کلاسیک فیزیک که بر آن ها اعمال شوند  نزدیک تر می شویم. فراتر از این حد را جهان کوانتوم به تسخیر خود در آورده است که پتانسیل عظیم و همچنین چالش های بزرگی را بر سر راه ما قرار می دهد.

به طور متضاد، کامپیوتر های کوانتومی می توانند با دروازه های منطقی دو حالتی کار کنند. یکی از این حالت ها  XOR و دیگری حالتی است که آن را QO1 می نامیم ( توانایی تغییر صفر به برهم نهی دو حالت صفر و یک، دروازه منطقی که نمی تواند در کامپیوتر های کلاسیک وجود داشته باشد.). در یک کامپیوتر کوانتومی،  از ذرات بنیادی مانند الکترون ها یا فوتون ها می توان استفاده کرد( در عمل حتی استفاده از یون ها نیز با موفقیت همراه بوده است) که بار الکتریکی یا پولاریزاسیون آن ها به عنوان نمایش های صفر و/یا یک مورد استفاده قرار می گیرد. به هر کدام از این ذره ها بیت کوانتومی یا کیوبیت گفته می شود. طبیعت و رفتار این ذره ها مبنای کامپیوتر های کوانتومی را تشکیل می دهد. مرتبط ترین جنبه های فیزیک کوانتومی به این زمینه اصل های برهم­ نهی و در­هم­ تنیدگی هستند.

بر هم نهی

یک کیوبیت را به عنوان یک الکترون که در یک میدان مغناطیسی قرار گرفته در نظر بگیرید. جهت چرخش الکترون (اسپین) می تواند مطابق جهت میدان (اسپین مثبت) یا در خلاف جهت آن (اسپین منفی) باشد. تغییر اسپین الکترون از حالتی به حالت دیگر توسط پالسی از انرژی-مثلا با استفاده از لیزر ها- انجام می شود. فرض کنیم که ما برای این کار از یک واحد از انرژی لیزر استفاده می کنیم. حال اگر تنها از نصف واحد انرژی لیزر استفاده کنیم و ذره را از تمامی تاثیرات خارجی دور نگه داریم چه اتفاق می افتد؟ بنا به قانون کوانتوم، در این حالت ذره، وارد بر هم نهی حالت های ممکن می شود و در این حالت طوری رفتار می کند که انگار به طور همزمان در دو حالت ممکن است. هر کدام از کیوبیت های مورد استفاده می تواند حالتی بر هم نهاده از صفر و یک باشد. در نتیجه تعداد محاسباتی که یک کامپیوتر کوانتومی می تواند انجام دهد برابر 2n است که در آن n برابر تعداد کیوبیت های مورد استفاده است. یک کامپیوتر کوانتومی که از 500 کیوبیت تشکیل شده است این پتانسیل را دارد تا در یک مرحله محاسباتی  محاسبه را انجام دهد. این مقدار بسیار عالی است. 2500 بینهایت اتم بیشتر از تعداد اتم های شناخته شده در جهان هستی دارد. ( این در واقع شکل واقعی پردازش موازی است. کامپیوتر های کلاسیک امروز، حتی آن هایی که گفته می شود دارای پردازنده های موازی هستند در واقعیت تنها یک کار را به طور همزمان انجام می دهند اما دو یا تعداد بیشتری پردازنده این کار را انجام می دهند). اما این ذرات چگونه با یکدیگر بر هم کنش دارند؟ آن ها این کار را با در هم تنیدگی کوانتومی انجام می دهند.

درهم تنیدگی

ذراتی ( مانند فوتون ها، الکترون ها و کیوبیت ها) که در نقطه ای با یکدیگر بر هم کنش داشته اند نوعی ارتباط را با یکدیگر حفظ می کنند و می توانند به صورت جفتی در هم تنیده شوند که به این فرایند همبستگی گفته می شود. دانستن اسپین یکی از ذرات در هم تنیده شده(بالا یا پایین) به ما اجازه می دهد تا بفهمیم اسپین زوجش در خلاف جهت آن است. حتی شگفت انگیزتر این نکته است که به دلیل پدیده بر هم نهی، ذره اندازه گیری شده تا قبل از اندازه گیری شدن هیچ جهت اسپین منفردی ندارد اما به طور همزمان در هر دو حالت اسپین مثبت و منفی وجود دارد. حالت اسپین ذره مورد بررسی در زمان اندازه گیری تعیین می شود و به ذره همبسته شده اش نیز ارتباط داده می شود. در واقع به طور همزمان برای آن جهت عکس اسپین ذره اندازه گیری شده در نظر گرفته می شود. این پدیده کاملا حقیقی است( انیشتین به این پدیده لقب “عمل شبح وار در فاصله” داد) اما مکانیزم آن را تا به امروز نمی توان با کمک هیچ نظریه ای تشریح کرد. تنها راه این است که آن را به عنوان فرض قبول کنیم. در هم تنیدگی کوانتومی اجازه می دهد تا کیوبیت هایی که با یکدیگر فواصل فوق العاده زیادی دارند به صورت لحظه ای ( محدود به سرعت نور نیست)  بر هم کنش داشته باشند. مهم نیست فاصله بین ذرات همبسته چقدر باشد، تا زمانی که این ذرات ایزوله باشند به صورت در هم تنیده باقی خواهند ماند.

بر هم نهی کوانتومی و درهم­تنیدگی کوانتومی با یکدیگر قدرت پردازش فوق العاده زیادی را ایجاد می کنند. در حالی که یک داده 2 بیتی در یک کامپیوتر معمولی در هر لحظه می تواند  دارای 4 حالت باشد(00-01-10-11) یک داده 2 کیوبیتی در یک کامپیوتر کوانتومی می تواند هر چهار عدد را به صورت هم زمان ذخیره کند زیرا هر کیوبیت نمایانگر 2 مقدار به طور همزمان است. اگر کیوبیت های بیشتری اضافه شوند این افزایش ظرفیت محاسبات به صورت نمایی افزایش پیدا خواهد کرد.

برنامه نویسی کوانتومی

شاید حتی جذاب تر از قدرت مطلق کامپیوتر های کوانتومی این نکته باشد که آن ها به ما اجازه می دهند تا برنامه ها را به روشی کاملا جدید بنویسیم. برای مثال یک کامپیوتر کوانتومی می تواند از یک توالی برنامه نویسی که مفهومش این است که ” تمام بر هم نهی های محاسبات قبلی را را ذخیره کن” استفاده کند. این دستور برای کامپیوتر های کلاسیک کاملا بی معنی است و البته همین دستور می تواند در حل بسیار سریع مسائل خاص ریاضی مانند پیدا کردن فاکتور های اعداد بزرگ به ما کمک کند. در ادامه به بررسی این مثال می پردازیم.

تاکنون 2 موفقیت قابل توجه در در زمینه برنامه نویسی کوانتومی اتفاق افتاده است. اولین آن ها در سال 1994 توسط Peter Shor ( که در حال حاضر در آزمایشگاه های AT&T کار می کند) انجام شد. او یک الگوریتم کوانتومی طراحی کرد که می توانست به صورت موثر فاکتور های اعداد بزرگ را پیدا کند. مبنای اصلی این الگوریتم سیستمی است که از نظریه اعداد برای تخمین دوره تناوب یک دنباله عددی بزرگ استفاده می کند. موفقیت چشمگیر دوم توسط Lov Grover در آزمایشگاه  Bell و در سال 1996 به دست آمد. او یک الگوریتم بسیار سریع طراحی کرد که ثابت شده سریع ترین الگوریتم ساخته شده برای جستجو در بانک های اطلاعاتی سازمان نیافته به شمار می رود. این الگوریتم آنقدر پر بازده است که به طور متوسط تنها به ریشه دوم N ( N تعداد عناصر موجود است) جستجو نیاز دارد تا نتیجه مورد نظر را پیدا کند. در حالی که همین مسئله در کامپیوتر های کلاسیک به N/2 جستجو نیاز دارد.

موانع و برخی راه حل ها

تمامی مسائل مطرح شده به نظر امیدوار کننده می آیند. اما هنوز هم موانع بزرگی وجود دارند که باید بر آن ها غلبه شود. در ادامه برخی از مشکلات کامپیوتر های کوانتومی مطرح می شوند:

  1.  تداخل : در فاز محاسباتی یک عملیات کوانتومی کوچکترین اغتشاش در سیستم کوانتومی ( مثلا یک فوتون سرگردان یا موجی از تشعشعات الکترومعناطیسی) باعث قطع شدن محاسبات کوانتومی می شود. به این فرآیند واهمدوسی (decoherence) گفته می شود. یک کامپیوتر کوانتومی در فاز محاسباتی باید از تمامی تداخل های خارجی دور نگه داشته شود. در این زمینه موفقیت هایی به وسیله استفاده از کیوبیت ها در میدان های قوی مغناطیسی و با کمک یون ها به دست آمده است.
  2. تصحیح خطا : به دلیل این که ایزوله کردن حقیقی یک سیستم کوانتومی بسیار دشوار است سیستم های تصحیح خطا برای محاسبات کوانتومی ایجاد شده اند. کیوبیت ها، بیت های دیجیتال داده نیستند در نتیجه، نمی توان از روش های متداول( و بسیار موثر)  تصحیح خطا مانند روش افزونگی سه گانه استفاده کرد. با توجه به طبیعت محاسبات کوانتومی، تصحیح خطا فوق العاده حیاتی است. حتی یک خطای کوچک در عملیات می تواند درستی کل محاسبات را از بین ببرد. در این زمینه پیشرفت های چشمگیری رخ داده است و الگوریتمی توسعه داده شده که از 9 کیوبیت ( 1کیوبیت محاسباتی و 8 کیوبیت تصحیحی) استفاده می کند. اخیرا نیز پیشرفت مهمی توسط IBM رخ داد که در آن الگوریتم از 5 کیوبیت( 1 کیوبیت محاسباتی و 4 کیوبیت تصحیحی) استفاده می شود.
  3. کنترل خروجی : این مسئله که کاملا با دو مورد بالایی در ارتباط است بیان می کند که به دست آوردن داده خروجی بعد از این محاسبات کوانتومی انجام شد خطر خراب کردن خروجی را در پی دارد. در مثال یک کامپیوتر با 500 کیوبیت اگر بخواهیم خروجی را کمی سازی کنیم احتمال اینکه خروجی صحیح  را مشاهده کنیم برابر با 1 در 2500 می باشد. در نتیجه به روشی نیاز داریم که اطمینان حاصل کند که به محض این که محاسبات تمام شد و عمل مشاهده خروجی صورت گرفت مقدار مشاهده شده برابر پاسخ صحیح باشد. چگونه می توان این کار را انجام داد؟ این کار توسط  Grover و به وسیله الگوریتم جستجو در بانک های اطلاعاتیش انجام گرفته است. این الگوریتم بر شکل خاص موجی شکل منحنی احتمال که به صورت طبیعی در کامپیوتر های کوانتومی وجود دارد تکیه می کند. این الگوریتم اطمینان حاصل می کند وقتی همه محاسبات انجام شد عمل اندازه گیری باعث می شود تا حالت کوانتومی به جواب صحیح واهمدوس شود.

اگرچه هنوز مشکلات زیادی وجود دارند پیشرفت های چشمگیر در 15 سال اخیر و به خصوص در 3 سال اخیر ساخت شکلی از کامپیوتر های کوانتومی کاربردی را از حالت غیر امکان پذیر به امکان پذیر تبدیل کرده است. اما هنوز جای بحث زیادی وجود دارد که این اتفاق در کمتر از یک دهه آینده خواهد افتاد یا این کامپیوتر ها صد سال دیگر ساخته خواهند شد. با این وجود، پتانسیلی که این تکنولوژی ارائه می دهد باعث علاقه مندی شدید دولت و بخش خصوصی شده است.  کاربرد های نظامی شامل توانایی شکستن کلید های رمزنگاری  با استفاده از روش های جستجوی جامع می شود در حالی که کاربرد های غیرنظامی از مدل سازی DNA تا تحلیل های پیچیده علم مواد را شامل می شوند. این پتانسیلِ زیاد است که به طور مداوم باعث از میان برداشته شدن موانع موجود بر سر راه این تکنولوژی می شود اما این که آیا می توان همه موانع را از پیش رو برداشت و این که چه زمانی این اتفاق می افتد سوال هایی است که جوابشان مشخص نیست.

http://mediasoft.ir/%D9%85%D8%AD%D8%A7%D8%B3%D8%A8%D8%A7%D8%AA-%DA%A9%D9%88%D8%A7%D9%86%D8%AA%D9%88%D9%85%DB%8C-%DA%86%DB%8C%D8%B3%D8%AA%D8%9F/

loader

لطفا شکیبا باشید ...