محاسبات کوانتومی و کامپیوتر کوانتومی چیست؟

محاسبات کوانتومی و کامپیوتر کوانتومی چیست؟
با مطالعه این مقاله مقدار اندکی با دنیای شگفت انگیز و جذاب محاسبات کوانتومی آشنا می‌شوید. همچنین با کامپیوترهایی آشنا می‌شوید که منطبق بر قوانین فیزیک کوانتومی عمل می‌کنند.
: 502

یکی از شگفت‌انگیزترین ساخته‌های بشر در  قرن 21، کامپیوترهای کوانتومی بودند، که قوانین پایه‌ای آن‌ها براساس فیزیک کوانتومی است. در ادامه قصد داریم بیشتر با این نوع از کامپیوترها و به طور کلی محاسبات کوانتومی آشنا شویم.

با پیشرفت علم و کوچک‌تر شدن اندازه پردازنده‌ها به مرور سایز پردازنده مورد استفاده در تلفن‌های همراه به اندازه‌ای برابر ۷ نانومتر رسید و مرور شاهد رواج و استفاده از پردازنده‌های 5 نانومتری نیز خواهیم بود. این پردازنده‌ها علاوه‌بر سایز کوچکی که دارند، از پردازنده‌های سطح بالایی که در دهه 2000 میلادی روانه بازار شده‌اند نیز قوی‌تر هستند. این تغییر سایز شگفت‌انگیز فقط محدود به پردازنده‌های موبایل نمی‌شود بلکه پردازنده‌های دسکتاپ و سرور نیز در اندازه 10 و ۷ نانومتری در بازار موجود است.

با این‌که پردازنده‌های محاسباتی در کارایی و سرعت پیشرفت چشم‌گیری کردند، هنوز هم مسائلی وجود دارد که هیچ‌ سوپر کامپیوتری نمی‌تواند آن را حل کند. علاوه‌بر وجود این مسائل پیچیده، مشکل دیگری که در روند توسعه و ساخت تراشه‌ها ممکن است با آن رو به رو شویم، کوچک شدن ابعاد آن‌ها است. زمانی که اندازه این تراشه‌ها به قدری کوچک می‌شود که ساختار آن‌ها به زیر 10 نانومتر می‌رسد، ابعاد ترانزیستورها نزدیک به ابعاد اتمی شده و قوانین فیزیک کوانتومی در آن‌ها نمود پیدا می‌کند و قواعد محاسباتی تغییر می‌کند. برای نمونه در این ابعاد جدید ممکن است یک الکترون‌ از یک ترانزیستور به ترانزیستور دیگری برود، این پدیده‌ای است که اتفاق افتادن آن برای یک تراشه محاسباتی، اتفاق عادی و نرمالی نیست.

به مرور، این چالش‌ به یک فرصت‌، برای فیزیکدانان تبدیل شد. برای حل این مشکل فیزیکدانان راه حلی برای آن پیشنهاد دادند که در دنیای فیزیک کوانتومی و قوانین آن قابل توجیه است. ما قصد داریم در این مطلب به توضیح مختصری در مورد محاسبات و کامپیوترهای کوانتومی بپردازیم.

محاسبات رایج یا محاسبات باینری

تا به حال این سوال برایتان پیش آمده است که کارهایی که به طور معمول با رایانه یا گوشی همراه خود انجام می‌دهید، به چه صورت توسط پردازنده مرکزی (CPU) دستگاه مورد نظر شما تجزیه و تحلیل و در نهایت انجام می‌شود؟

تمام کاری که در کامپیوترهای متعارف انجام می‌شود برپایه اعداد (۰ و ۱) است و به عبارتی محاسبات آن‌ها از نوع باینری است و برپایه صفر یعنی نبودن و یک یعنی بودن عمل می‌کنند. این کامپیوترها اعداد گفته شده را در حافظه خود ذخیره کرده و با انجام عملیات ساده ریاضی روی آن‌ها عمل پردازش را انجام می‌دهند. عمل ذخیره‌سازی و پردازش در این کامپیوترها توسط سوییچ‌هایی به نام ترانزیستور انجام می‌گیرد. خود این ترانزیستورها را می‌توان یک نمونه‌ی میکروسکوپی و بسیار کوچک کلیدهایی که برای خاموش و روشن کردن چراغ‌ها استفاده می‌کنند، فرض کرد. در حقیقت یک ترانزیستور یا روشن است یا خاموش دقیقا مثل یک چراغ. از ترانزیستور روشن برای ذخیره یک (۱) و از ترانزیستور خاموش بودن برای ذخیره صفر (۰) استفاده می‌شود.

اما همه چیز به همین سادگی هم نیست، برای ذخیره هر عدد، نماد ویا هر حرفی یک رشته‌ طولانی از این صفر و یک‌ها استفاده می‌شود. مثالا در قواعد مربوط به کد اسکی (ASCII) برای نمایش حرف A رشته 1000001 و برای نمایش حرف a از رشته 01100001 استفاده می‌شود. به هر یک از  ۰ و ۱ها یک رقم باینری یا بیت می‌گویند با در نظر گرفتن این موضوع پس می‌توان نتیجه گرفت به کمک یک رشته‌ی ۸ بیتی می‌توان ۲۵۵ کاراکتر مختلف را ذخیره کرد. لازم به ذکر است به هر 8 بیت به اصطلاح ۱ بایت گفته می‌شود.

در این کامپیوتر‌ها کار محاسبات و پردازش روی بیت‌ها به کمک مدارهای منطقی (Logic Gates) انجام می‌شود، خود این مدارهای منطقی هر یک از تعدادی ترانزیستور ساخته شده‌اند. به طور خلاصه می‌توان گفت کاری که در یک گیت منطقی انجام می‌شود این است که حالت یک بیت را تشخیص داده و در یک حافظه‌ی موقت که به آن رجیستر می‌گویند ذخیره می‌کند. سپس آن‌ را به یک حالت جدید تبدیل می‌کند. این تبدیل حالت در واقع همان عمل جمع، تفریق یا ضربی است که ما در ذهن خود انتظار داریم انجام شود. یک الگوریتم به صورت فیزیکی، در واقع از چندین گیت منطقی تشکیل شده‌است که باهم یک مدار الکترونیکی را ایجاد کرده‌‌اند.

در ابتدا نیز اشاره شد که، روند کوچک‌ شدن حجم ترانزیستورها به مشکل برخورد و کوچک‌تر شدن آن‌ها در ابعاد زیر 10 نانومتر مشکلاتی به همراه داشت. در سال 1947 یعنی قبل از به وجود آمدن ترانزیستورها، کار این قطعات را سوییچ‌ها انجام می‌دادند. این سوییچ‌ها‌ لامپ‌ خلأهایی بودند که اندازه بزرگی داشتند و فضای زیادی اشغال می‌کردند. با به وجود آمدن این ترانزیستورها و روند پیشرفت روز به روز آن‌ها امروزه کوچک‌تر شدن ابعاد آن‌ها، در کنار پیشرفت کارایی، می‌توان گفت روی یک تراشه پیشرفته با اندازه‌ای برابر با ناخن دست، میلیاردها ترانزیستور وجود دارد. در دهه 1960، گوردن مور که یکی از بنیانگذران شرکت بزرگ اینتل (Intel) است قانون مور(Moore’s law) را بیان کرد. طبق این قانون که یک قانون تجربی بود، می‌توان گفت به طور متوسط هر ۱۸ ماه تعداد ترانزیستورها بر روی یک تراشه با مساحت ثابت، دو برابر می‌شود.

از دهه 1960 که قانون مور مطرح شد تا به امروز تعداد ترانزیستورها افزایش یافته و  افزایش حافظه و بیشتر شدن سرعت محاسبات را برای کامپیوترها، به دنبال داشته است. پیشرفت کامپیوترها توانایی حل بعضی از مسائل پیچیده را به آن‌ها داده است. اما با تمام این تفاسیر هنوز هم مسائلی مطرح است که حتی سوپرکامپیوترها هم قدرت و توانایی حل آن‌ها را ندارند.

باتوجه به این که در سال‌های اخیر کمتر شدن اندازه ترانزیستورها از 10 نانومتر به بعد با مشکلاتی مواجه شد و سرعت تولید آن و پیشرفت‌ آن کندتر شد، می‌توان گفت قانون مور اعتبار خود را از دست داده‌است. در کنار راهکارهای کلاسیکی که برای رفع مشکلات به وجود آمده مطرح کردند، رویکردی عنوان شد که منطبق بر قوانین فیزیک کوانتومی و محاسبات کوانتومی بود.

محاسبات کوانتومی

بین اتم‌ها و ذرات زیر اتمی قوانینی حاکم است. مطالعه قوانین موجود در این دنیای میکروسکوپی، پایه و اساس علم فیزیک کوانتوم است. دلیل به وجود آمدن این علم و قوانین جدیدش این است که وقتی دنیای مطالعه و بررسی در نظریات فیزیک آن قدر کوچک می‌شود که به مقیاس‌های اتمی می‌رسیم، قوانین فیزیک کلاسیک دیگر کارایی نداشته و نیاز است تا قوانین جدیدی را برای آن‌ها در نظر بگیریم.

به طور مثال، در کتاب‌های اپتیک تعریفی از نور آمده‌است که آن را به دو بخش موج و ذره تقسیم می‌کند. در حقیقت این تعریف برای نور می‌گوید علاوه بر این‌که نور همان طور که می‌دانیم بخشی از طیف امواج الکترومغناطیسی است، آن را یک ذره فوتون نیز می‌توان دانست. سوالی که اکنون ممکن است پیش آید این است که یک چیز واحد مگر می‌تواند دو موجودیت داشته باشد؟! در دنیای کوانتوم و مطابق قوانین حاکم بر آن چنین مواردی ممکن است. به طور مثال علاوه بر بحث دوگانگی موج – ذره برای نور، گربه شرودینگر یکی از مثال‌های معروف دنیای فیزیک کوانتوم است. در این مثال فرض می‌شود گربه‌ای در جعبه‌ای قرار دارد، که در هر لحظه در آن واحد هم ‌می‌تواند زنده باشد و هم مرده!

حال اگر تولید کنندگان توانایی تولید ترانزیستورها با ابعاد کوچک‌تر از 10 نانومتر را داشته باشند قانون مور پابرجا می‌ماند. اما کاری که این ترانزیستورهای کوچک انجام می‌دهند مطابق قوانین فیزیک کلاسیک نبوده و عملکردی که طبق این قوانین انتظار می‌رود را ندارند. آن‌ها از قوانین پیچیده‌تر مطرح شده در فیزیک کوانتومی، پیروی می‌کند. نکته مهمی که ممکن است توجه شما را جلب کند این است که آیا تراشه‌هایی که از قرار گرفتن چندین ترانزیستور کوانتومی ایجاد می‌شوند توانایی انجام مسائل پیچیده را دارند؟! طبق محاسبات ریاضی روی کاغذ بله این توانایی را دارند.

آغاز روند پیشرفت علوم کامپیوتر و محاسبات و درنتیجه مطرح شدن کامپیوترهای کوانتومی به عنوان گزینه‌ای جدی برای انجام محاسبات توسط دو فیزیکدان و محقق شرکت آی بی اِم (IBM) به نام‌های رالف لاندائور (Rolf Landauer) و کارلس بِنِت (Charles H. Bennett.) انجام شد. در ابتدا لاندائور در دهه 1960 این فرضیه را مطرح کرد که اطلاعات دارای ماهیتی فیزیکی هستند و هر تغییری که در آن‌ها صورت می‌گیرد طبق قوانین فیزیکی است.

یکی از نتایجی که از فرضیه لاندائور می‌توان برداشت کرد، این است که انجام محاسبات و تغییر اطلاعات(بیت ها) هدر رفتن انرژی را به همراه دارد. همین امر موجب می‌شود قسمت‌های پردازشی یک کامپیوتر مثل تراشه مرکزی (CPU) و تراشه گرافیکی (GPU) حتی برای انجام عملیات‌های ساده و سبک نیز  انرژی زیادی مصرف کنند و گرم ‌شوند.

سپس بِنِت در دهه 1970 در ادامه‌ی طرح لاندائور، ثابت کرد اگر در کامپیوترها عملیات پردازش به طور برگشت‌پذیر انجام شود، به مقدار چشم‌گیری از اتلاف انرژی جلوگیری می‌شود. تعریف خیلی ساده برای پردازش یا محاسبات برگشت‌پذیر این است که از روی خروجی‌ اطلاعات (بیت‌های خروجی) بتوان به اطلاعات ورودی (بیت‌های ورودی) رسید. برای رسیدن به این هدف نیاز به گیت‌های منطقی‌ای داریم که به طور برگشت پذیر کار ‌کنند. تنها گیتی که در فیزیک و محاسبات کلاسیک به صورت برگشت‌پذیر عمل می‌کند، گیت NOT است. انتظاری که از کامپیوترهای کوانتومی دارند این است که، با انجام محاسباتی برگشت‌پذیر عملیات گسترده و سنگینی که وجود داشت را بدون صرف انرژی‌ زیاد و با حداقل انرژی انجام دهند. به طور مثال کامپیوتر کوانتومی D-Wave 2000Q که توسط یک شرکت کانادایی به نام دی وِیو (D-Wave) ساخته شده‌است تنها 25کیلووات انرژی مصرف می‌کند. در حالی که توان مصرفی سوپرکامپیوتر Summit که از تراشه‌های شرکت NVIDIA استفاده می‌کند 13مگاوات است.

در سال 1981 پائول بِنیوف (Paul Benioff) از آزمایشگاه ملی (Argonne) تلاش کرد ماشینی مشابه یک کامپیوتر معمولی بسازد که قوانین فیزیک کوانتومی بر عملکرد آن حاکم باشد. پس از آن ریچارد فاینمنیکی (Richard Feynman) یکی از فیزیکدانان مطرح، با استفاده از قوانین مکانیک کوانتومی نشان داد چگونه با یک ماشین پایه می‌توان محاسبات کوانتومی را انجام می‌شود. چند سال بعد دِیوید دویچ (David Deutsch) از دانشگاه آکسفورد که از تاثیرگذارترین افراد در پیشرفت محاسبات کوانتومی است، مبانی ابتدایی یک کامپیوتر کوانتومی را به صورت نظری و تئوری مطرح کرد.

کامپیوتر کوانتومی

مشابه موجودیت‌ها و تعاریف اصلی‌ای که در یک کامپیوتر معمولی وجود دارد مثل بیت‌، الگوریتم، گیت‌های منطقی و غیره در یک کامپیوتر کوانتومی نیز وجود دارد. به اصلی‌ترین جزء که در واقع همان کوچک‌ترین واحد پردازش اطلاعات در یک کامپیوتر کوانتومی است، بیت کوانتومی یا کیوبیت می‌گویند.

در تعریف بیت آمده‌است در هر لحظه فقط یکی از مقادیر ۰ و ۱ را دارد. درحالی که یک کیوبیت در هر لحظه می‌تواند هم مقدار ۰ را داشته‌باشد و هم مقدار ۱ ، یک کیوبیت می‌تواند حتی هر مقدار دیگری بین ۰ و ۱ را داشته باشد. در واقع اگر یک کیوبیت در حالت برهم‌نهی (Superposition) قرار داشته باشد، یکی از حالت‌های پایه ۰ و ۱ را دارد. برای این که مقدار یک کیوبیت را بدانیم باید آن را اندازه‌گیری کنیم، اگر این مقدار 0 یا 1 نباشد یعنی حالت برهم‌نهی فرو ریخته و کیوبیت اندازه گیری شده با یک احتمالی 0 است و یا با یه احتمالی مقدار ۱ دارد. 

گفته شد یک کیوبیت می‌تواند مقادیر مختلفی را به طور هم‌زمان در خود ذخیره کند (برهم‌نهی از حالت‌های 0 و ۱)، از این رو می‌توان گفت در کامپیوتر کوانتومی زمانی که کیوبیت‌ها پردازش می‌شوند، در واقع اطلاعات جدید به صورت هم‌زمان پردازش می‌شوند. به طور کلی می‌توان گفت کامپیوترهای معمولی پردازش اطلاعات و محاسبات مربوط به آن را سری (Serial) انجام می‌دهند، یعنی هر محاسبه و پردازشی در انتهای پردازش قبل از خود انجام می‌شود. در حالی که کامپویترهای کوانتومی کار پردازش و محاسبات بر روی یک کیوبیت را به صورت موازی (Parallel) و همزمان می‌توانند انجام دهند.

پردازش بیت‌های معمولی برعهده‌ی گیت‌های منطقی است. پردازش کیوبیت‌ها هم در کامپیوترهای کوانتومی برعهده‌ی گیت‌های کوانتومی است. گیت‌های کوانتومی را می‌توان اینگونه تعریف کرد که آن‌ها عملگر یا اپراتورهای (Quantum Operators) تحول زمانی یکانی هستند که می‌توانند در یک بازه زمانی مشخص، نگاشت یک به یکی را انجام دهند و یک کیوبیت را از یک حالت کوانتومی به حالت دیگری تبدیل کنند. نگاشت انجام شده توسط گیت‌های کوانتومی یک به یک است، در نتیجه عملیات انجام شده برگشت‌پذیر است.

چگونگی عملکرد کامپیوترهای کوانتومی

مثال شفاف برای یک بیت، شما می‌توانید دو سطح مختلف ولتاژ مثلاً 0 و 5 ولت را در نظر بگیرید که روشن و یا خاموش بودن یک پالس لیزری را نشان می‌دهد. برای کیوبیت نیز، شما می‌توانید هر سیستم دو حالته فیزیکی (ریزمقیاس) را در نظر بگیرید مانند اسپین بالا و پایین برای یک الکترون یا قطبش عمودی و افقی برای یک فوتون.

این سیستم‌های ریزمقیاس و کوانتومی به شدت نسبت به نویز‌ حساس بوده و حالتشان تغییر می‌کند. با این اوصاف برای تعریف هر کیوبیت‌، پردازش و یا کنترل آن‌، نیاز به یک مکانیزم‌ خاص و پیچیده است تا بتوان شرایط قرار گرفتن این اتم، یون و … که به عنوان کیوبیت استفاده شده‌اند را در یک حالت خاص و یا حتی امکان تغییر حالت این کیوبیت‌ها را فراهم کرد. منظور از قرار دادن کیوبیت (اتم، یون، فوتون و …) در یک حالت خاص، همان ذخیره اطلاعات و تغییر حالت آن‌ها نیز همان عمل پردازش بر روی کیوبیت‌ها است. برای در امان ماندن اطلاعات از نویز در سیستم‌های کوانتومی باید آن‌ها را از محیط خارجی ایزوله کنیم، برای این کار تجهیزات گران‌قیمتی نیاز است تا بتوان خلأ بسیار بالا ایجاد کرد و یا دمای محیط مورد نظر را تا نزدیکی صفر مطلق پایین آورد.

روش‌های متفاوتی برای کنترل کیوبیت‌ها، پیاده‌سازی گیت‌های کوانتومی و الگوریتم‌های کوانتومی مطرح شده‌است. یکی از این روش‌ها، تعریف کیوبیت توسط نقاط کوانتومی است. منظور از نقاط کوانتومی ذراتی نانومقیاس از نیمه‌رسانا است که درون خود تعدادی الکترون و حفره دارند.

روش‌دیگری که می‌توان به آن اشاره کرد، تله اندازی یونی است. در این روش با اضافه کردن یا کندن الکترون ، اتم را به یون تبدیل کرده، سپس این اتم در داخل یک کاواک به وسیله پالس‌های لیزری به دام می‌افتاده و در یک حالت خاص قرار می‌گیرد. همچنین این یون می‌تواند به وسیله پالس‌هایی متفاوت در حالت‌های مختلف دیگری نیز قرار بگیرد.

یکی دیگر از این روش‌ها که کمی پیچیده‌تر از سایر روش‌ها است، تعریف کیوبیت و پیاده‌سازی گیت‌های کوانتومی با استفاده از سیستم‌های اپتیک خطی و غیرخطی است. هر فوتون نسبت به محیط بیرون و حتی نسبت به فوتون‌ دیگر ایزوله است، به همین دلیل گزینه‌ی مناسب و ارزان قیمتی برای تعریف کیوبیت‌ها می‌توانند باشند. با استفاده از آن‌ها دیگر نیازی به ایجاد دماهای خیلی پایین یا خلأ بالا نیست. اما این روش نیز مشکلات خاص خود را دارد. مثلا برای پیاده‌سازی گیت‌های چند کیوبیتی به برهم‌کنش فوتون‌ها نیازاست ولی برهم‌کنش فوتون‌ها نیاز به شرایطی خاصی دارد و که حتی اگر این شرایط را نیز برقرار کنند برهم‌کنش فوتون‌ها قطعی نبوده و با یه احتمالی صورت می‌گیرد.

رفتن به بالا