Moja odpowiedź jest podobna do doskonałej DKNguyen, ale wyrażę ją inaczej.
Po pierwsze, w układzie scalonym napięcie i prąd są niezależne. Najlepiej byłoby, gdyby oba były tak niskie, jak to tylko możliwe. Ale jak zawsze w inżynierii, istnieją konflikty projektowe, które zmuszają cię do kompromisów.
Spójrzmy więc osobno na napięcie i prąd
Napięcie
Należy zwrócić uwagę na kilka kwestii dotyczących stosowania wyższego (wyższego) napięcia, a inne przy niższym. Oryginalna logika TTL (taka jak większość układów używanych w Apple z 1977 r.] [Komputer poza samym procesorem) działała przy 5 woltach. Logika TTL jest nadal wszechobecna; nadal można kupić większość tych samych żetonów, których używał Steve Wozniak w latach 70. W systemach telefonii stacjonarnej impulsy wybierania (które są tak naprawdę cyfrowymi bitami, jeśli się nad tym zastanowić) zużywały aż 48V.
Dzisiaj obniżasz napięcie do 1 wolta
Zalety wysokiego napięcia
Niezawodność. Jeśli masz obwód niskiej jakości (taki jak 7-milowy cienki miedziany przewód telefoniczny), znacznie łatwiej jest niezawodnie odróżnić różnicę między 48 V a 0, ale cholernie prawie niemożliwe do odróżnienia 1 V od 0 V. Zasadniczo wysokie napięcie „po prostu działa” bez względu na wszystko.
To wszystko. W dzisiejszych wysoce zintegrowanych obwodach, które są naprawdę niezwykle precyzyjnymi instrumentami, i dzięki ponad 50-letniemu doświadczeniu w produkcji, aby osiągnąć tę precyzję, nie potrzebujesz takiej wytrzymałości, więc niższe napięcia działają równie dobrze.
Edytuj: jak zauważył Peter Cordes, wyższe napięcie ma drugą zaletę; może pozwolić na zwiększenie prędkości, ponieważ napięcie szybciej osiąga próg niezawodnej detekcji. Mam nadzieję, że poprawnie to sparafrazowałem.
Zalety niskiego napięcia
- Niskie zużycie energii, co przekłada się na dłuższą żywotność baterii i mniejszą emisję ciepła. Edycja: Peter Cordes zwrócił uwagę, że niższe zużycie energii przekłada się również na to, że chip po prostu się nie topi. To bardzo poważny problem. Niektóre procesory eksplodują w ciągu kilku sekund, jeśli zapomnisz założyć radiator.
- Wyższa prędkość. Po prostu jest mniej elektronów do przetasowania (chociaż technicznie zależy to od ładunku, a nie od napięcia, te dwa są ze sobą powiązane w praktyce).
- Możesz użyć cieńszych izolatorów bez martwienia się o przebicie prądu. To przekłada się na cieńsze izolatory. Wyjątek: tranzystory z pływającą bramką są w rzeczywistości zaprojektowane do przebijania prądu przez izolator. Dlatego zapisywanie i kasowanie pamięci flash wymaga wysokiego napięcia.
Jeśli więc mówisz o obwodzie komputera, niskie napięcie wyraźnie wygrywa.
Bieżące
Spójrzmy teraz na aktualny. Jak już wskazał DKNguyen, projektanci chcą również, aby prąd był jak najniższy, po części w celu zmniejszenia ciepła, a po części w celu przedłużenia żywotności baterii w smartfonach itp.
Ale żeby zrozumieć, co się dzieje, naprawdę nie powinieneś patrzeć na 100A, czy cokolwiek to jest. To może być średnia lub bardziej prawdopodobne, że jest to średnia przy dużym obciążeniu grafiki.
Gdyby twoja karta graficzna była całkowicie nieaktywna (co nigdy nie jest, nawet blisko!), prąd byłby w rzeczywistości bliski 0A. Tranzystory w mikroczipach są (mówiąc nieco prościej) zwykle ułożone jako pary tranzystorów CMOS w szeregu, gdzie jeden jest zawsze w trybie „on”, a drugi w trybie „off”. W teorii prąd nigdy nie może płynąć. W praktyce, gdy tranzystory przełączają się na bardzo krótki czas, zwykle występuje bardzo krótki okres (mierzony w pikosekundach), kiedy oba są „włączone” - w zasadzie jest to zwarcie. To przełączanie odbywa się miliardy razy na sekundę (w większości w zależności od częstotliwości zegara GPU) i od kilku tysięcy do milionów tranzystorów w tym samym czasie, w zależności od tego, jak aktywny jest twój GPU. Więc twoje 100A nie jest w rzeczywistości stałym 100A, ale serią prawie 0A, po których następują ekstremalnie krótkie skoki, potencjalnie nawet znacznie większe niż 100A.
Edycja: Peter Cordes wskazał również, że 0A jest przede wszystkim idealizacją. Przez tranzystory, a także prawie wszędzie na chipie, wypływa dużo pasożytniczego prądu.
Jest jeszcze drugi problem z aktualnym. Wiele komponentów (takich jak bity w dynamicznej pamięci RAM) w chipie działa jak kondensatory (w rzeczywistości są to tranzystory podłączone jako kondensatory). Zapisywanie zer lub jedynek do takich kondensatorów oznacza przechowywanie lub usuwanie elektronów z kondensatorów. Im wyższy prąd (i mniejszy ładunek), tym mniej czasu to zajmuje. Edycja: jak zauważył Peter Cordes, oprócz kondensatorów w obwodzie celowo, w każdym miejscu jest również dużo dodatkowej pojemności (na przykład z komponentów lub okablowania, które są tuż obok siebie), co również przyczynia się do tego samego problemu.
Projektanci mają kilka możliwości ograniczenia prądu:
- Zmniejsz prędkość. Zmniejsza to liczbę operacji przełączania (a tym samym skoków prądu), a także umożliwia ładowanie lub rozładowywanie kondensatorów z mniejszą szybkością.
- Wyłącz części obwodów, które nie są teraz używane.Ponownie, dzieje się to w trybie uśpienia.
- Skróć czas, w którym oba tranzystory w parze są włączone, aby skoki były krótsze.
- Obniż napięcie.Zgodnie z prawem Ohma niższe napięcia przekładają się na niższe prądy.
Pierwsze dwa są wykonywane głównie w trybie uśpienia, a także wtedy, gdy komputer zaczyna się przegrzewać.Niesławnie Apple również w pewnym momencie zwolnił swoje iPhone'y, aby zmniejszyć pobór prądu, gdy baterie zaczęły się starzeć.
Straty
Wspomniałeś również o dużych stratach w liniach energetycznych (gdzie napięcia są wysokie, a prądy niskie).To zupełnie inna sytuacja.W komputerze straty zawsze wynoszą 100%;prawie cała energia elektryczna jest zamieniana na ciepło (z wyjątkiem kilku, które są konwertowane na światło, energię radiową do Wi-Fi itp.).
A więc celem nie jest zmniejszenie strat, ale zmniejszenie całkowitej mocy