
Światło, DNA i atomy, czyli nowa rewolucja w elektronice
Krzem to cichy bohater naszej cyfrowej ery. Ten niepozorny pierwiastek jest fundamentem, na którym zbudowano całą współczesną cywilizację – od smartfonów w naszych kieszeniach po potężne serwery napędzające Internet. Jednak trwająca od dekad pogoń za coraz mniejszymi i szybszymi układami scalonymi zbliża się do mety. Inżynierowie docierają do fundamentalnych granic fizyki, gdzie dalsza miniaturyzacja staje się niezwykle trudna i kosztowna.
W tym kluczowym momencie świat nauki nie czeka z założonymi rękami, intensyfikując poszukiwania zupełnie nowych sposobów przetwarzania informacji. Przedstawiamy trzy najbardziej obiecujące kierunki, które mają potencjał, by zrewolucjonizować technologię i otworzyć drzwi do przyszłości, jakiej dziś nawet nie potrafimy sobie w pełni wyobrazić.
Fotonika Zintegrowana – Obliczenia Napędzane Światłem
Problem: Zakorkowane autostrady wewnątrz chipów
Wyobraźmy sobie wnętrze procesora jako gigantyczne, wielopoziomowe miasto. Informacje – w postaci impulsów elektrycznych – pędzą po milionach mikroskopijnych, miedzianych ścieżek, które działają jak drogi i autostrady. Im szybciej chcemy przesyłać dane, tym większy ruch generujemy. Niestety, elektrony, podobnie jak samochody, napotykają na opór. Zderzają się ze sobą, tworząc korki i generując ogromne ilości ciepła. To zjawisko, nazywane przez inżynierów „wąskim gardłem interconnectu”, jest dziś jedną z największych przeszkód w budowie jeszcze potężniejszych komputerów, zwłaszcza dla zastosowań w sztucznej inteligencji, która wymaga przesyłania gigantycznych ilości danych.
Rozwiązanie: Zamienić elektrony na fotony
A co, gdyby zamiast pchać przez miasto konwoje samochodów, można było przesyłać informacje za pomocą teleportacji? Tak w uproszczeniu działa fotonika zintegrowana. Zamiast elektronów wykorzystuje ona fotony, czyli cząstki światła. Dane są kodowane w impulsach świetlnych i przesyłane przez miniaturowe światłowody umieszczone bezpośrednio na krzemowym chipie.
Fotony mają nad elektronami fundamentalną przewagę: poruszają się z prędkością światła, niemal bez oporu i nie generują przy tym ciepła. Co więcej, w jednym falowodzie można przesyłać wiele różnych sygnałów jednocześnie, kodując je w różnych kolorach światła (technika znana jako WDM). To tak, jakby na jednym pasie autostrady mogły w tym samym czasie jechać samochody czerwone, zielone i niebieskie, a każdy z nich wiózłby inny ładunek informacji, nie przeszkadzając sobie nawzajem.
Wyzwania i perspektywy
Oczywiście, technologia ta ma swoje wyzwania. Największym jest stworzenie miniaturowych „żarówek” (laserów) i detektorów światła bezpośrednio na krzemowym podłożu. To jak próba wbudowania diamentu w kawałek czekolady – materiały te po prostu do siebie nie pasują, co komplikuje produkcję.
Mimo to, pionierskie firmy już dziś tworzą hybrydowe układy, gdzie procesory komunikują się ze sobą za pomocą światła. W centrach danych takie rozwiązanie oznacza gigantyczne oszczędności energii i skokowy wzrost wydajności. W przyszłości fotonika może stać się krwiobiegiem zupełnie nowych architektur komputerowych, umożliwiając budowę systemów o wydajności nieosiągalnej dla klasycznej elektroniki.
Komputery Biologiczne – Mózg jako procesor
Problem: Dlaczego mózg jest lepszy od superkomputera?
Najpotężniejsze superkomputery świata zajmują powierzchnię kortów tenisowych i zużywają energię wystarczającą do zasilenia małego miasta. Tymczasem ludzki mózg – najbardziej zaawansowana maszyna obliczeniowa, jaką znamy – wykonuje znacznie bardziej złożone zadania, pobierając zaledwie około 20 watów mocy, czyli tyle, co energooszczędna żarówka. Ta gigantyczna przepaść w efektywności pokazuje, że natura znalazła znacznie lepszy sposób na przetwarzanie informacji.
Rozwiązanie: Zaprzęgnąć do pracy żywe komórki
Inteligencja w szalce Petriego: Jednym z najbardziej fascynujących kierunków jest tzw. „wetware”, czyli wykorzystanie żywych neuronów do obliczeń. W laboratoriach hoduje się ludzkie komórki nerwowe na chipach wyposażonych w tysiące mikroelektrod, które pozwalają na komunikację z nimi. Dzięki naturalnej zdolności mózgu do uczenia się (neuroplastyczności), neurony spontanicznie tworzą sieci i uczą się wykonywać zadania w odpowiedzi na bodźce. Taki biologiczny komputer nie jest programowany w tradycyjny sposób – on uczy się sam, wzmacniając połączenia, które prowadzą do prawidłowego wyniku. Oprócz potencjału w tworzeniu AI, takie systemy to rewolucyjne narzędzie do badania chorób takich jak Alzheimer czy Parkinson.
DNA jako twardy dysk ostateczny: Cząsteczka DNA to mistrzostwo natury w dziedzinie przechowywania informacji. Jej gęstość zapisu jest niewyobrażalna – teoretycznie, w jednym gramie DNA można by zapisać 215 petabajtów danych. Oznacza to, że cała cyfrowa zawartość dzisiejszego internetu zmieściłaby się w pojemniku wielkości kostki cukru.
Wyobraźmy sobie, że całą Bibliotekę Narodową można zapisać w ilości DNA mieszczącej się w jednej kropli wody. Przechowywanie danych polega na zamianie cyfrowego alfabetu zer i jedynek na chemiczny alfabet czterech liter (A, C, G, T), a następnie stworzeniu (syntetyzowaniu) odpowiadających im nici DNA. Odczyt odbywa się za pomocą sekwencjonowania – technologii doskonale znanej z medycyny i biologii.
Dzięki niezwykłej trwałości (DNA może przetrwać tysiące lat), metoda ta jest idealna do długoterminowej archiwizacji najważniejszych danych ludzkości. Choć dziś jest to proces powolny i kosztowny, giganci technologiczni i laboratoria na całym świecie już eksperymentują z zapisywaniem i odczytywaniem danych z DNA, przygotowując nas na erę archiwów, które przetrwają wieki.
Nowe Materiały – wysokość jednego atomu
Problem: Koniec drogi dla Prawa Moore’a
Przez ponad 50 lat przemysł elektroniczny kierował się Prawem Moore’a, które mówiło, że moc obliczeniowa komputerów będzie się podwajać co około dwa lata. Osiągano to przez stałe zmniejszanie tranzystorów – mikroskopijnych przełączników, z których zbudowane są procesory. Dziś jednak dotarliśmy do ściany. Najnowsze tranzystory mają rozmiary zaledwie kilku nanometrów, czyli są mniejsze niż wirus.
W tej skali zaczyna rządzić dziwaczny świat fizyki kwantowej. Elektrony zaczynają zachowywać się jak duchy, przenikając przez bariery, które powinny je blokować (zjawisko tunelowania). To tak, jakby włącznik światła nie mógł się do końca wyłączyć, a przez żarówkę ciągle przepływał niewielki prąd. Powoduje to straty energii i sprawia, że układy stają się niestabilne. Dalsza miniaturyzacja krzemu staje się po prostu niepraktyczna.
Rozwiązanie: Zbudować tranzystory z nowych klocków
Materiały dwuwymiarowe (2D): Wyobraźmy sobie materiał tak cienki, jak to tylko możliwe – o grubości jednego atomu. Takim materiałem jest grafen, cudowna forma węgla, która jest mocniejsza od stali i przewodzi prąd lepiej niż miedź. Problem w tym, że grafen przewodzi go za dobrze – trudno go „wyłączyć”, co jest kluczowe dla tranzystora. Dlatego naukowcy badają inne materiały 2D, takie jak dwusiarczek molibdenu (MoS₂), które łączą zalety atomowej grubości z możliwością bycia doskonałym przełącznikiem.
Nanorurki węglowe: To zwinięte arkusze grafenu, tworzące idealne, mikroskopijne przewody. Są one doskonałym kandydatem do zastąpienia miedzi w roli połączeń wewnątrz chipów. Są znacznie odporniejsze na „zmęczenie materiału” (elektromigrację) – zjawisko przypominające rzekę, która powoli wymywa swój brzeg. Dzięki nim przyszłe procesory będą mogły być trwalsze i bardziej niezawodne.
Półprzewodniki do zadań specjalnych: W zastosowaniach wymagających dużej mocy (np. w ładowarkach do laptopów czy samochodach elektrycznych) krzem jest już zastępowany przez materiały takie jak azotek galu (GaN) i węglik krzemu (SiC). Pozwalają one na budowę urządzeń znacznie mniejszych, wydajniejszych i mniej się nagrzewających. To dzięki nim nowoczesne zasilacze mogą być tak kompaktowe.
Na Styku Materii, Życia i Informacji
W obliczu fizycznych ograniczeń krzemu, rozwój technologii cyfrowych wkracza w najbardziej ekscytującą fazę od dziesięcioleci. Odpowiedzią na wyzwania przyszłości nie jest już tylko prosta miniaturyzacja. To interdyscyplinarna podróż, w której fizyka, chemia, biologia i informatyka splatają się ze sobą, tworząc zupełnie nowe paradygmaty.
Być może za kilka dekad nasze dane nie będą przechowywane w krzemowych kościach pamięci, ale w syntetycznych niciach DNA zamkniętych w mikrokapsułkach. A sercem naszych komputerów będą tranzystory o grubości jednego atomu lub procesory, w których informacje pędzą z prędkością światła. Przyszłość elektroniki nie polega już tylko na zmniejszaniu. To redefiniowanie pojęcia „komputera” w erze, w której materia, życie i informacja zaczynają mówić wspólnym językiem.
Autorzy: Mgr inż. Jakub Konopiński, Prof. Albrecht Gramstein
Źródła:
[1] B. J. Shastri, A. N. Tait, T. F. Lima et al., “Photonics for artificial intelligence and neuromorphic computing,” Nature Photonics, vol. 15, no. 2, pp. 102–114, 2021.
[2] B. Xu, Y. Huang, Y. Fang et al., “Recent Progress of Neuromorphic Computing Based on Silicon Photonics: Electronic–Photonic Co‑Design, Device, and Architecture,” Photonics, vol. 9, no. 10, art. 698, 2022.
[3] Y. Zhao, X. Li, Y. Zhou, X. Tian, Y. Miao, J. Wang, L. Huang and F. Meng, “Advancements in DNA computing: exploring DNA logic systems and their biomedical applications,” Journal of Materials Chemistry B, vol. 12, pp. 10134–10148, 2024.
[4] D. Buterez et al., “Scaling up DNA digital data storage by efficiently predicting DNA hybridisation using deep learning,” Scientific reports, 2021.
[5] H. Li, Q. Li, Y. Li et al., “Recent Experimental Breakthroughs on 2D Transistors: Approaching the Theoretical Limit,” Advanced Functional Materials, vol. 34, no. 38, art. 2402474, 2024.
[6] X. Zhang, H. Zhao, X. Wei, Y. Zhang, Z. Zhang and Y. Zhang, “Two‑dimensional transition metal dichalcogenides for post‑silicon electronics,” National Science Open, vol. 2, art. 20230015, June 2023.