Pytanie:
Overclocking: trwałe uszkodzenie?
J. Polfer
2010-08-23 00:41:36 UTC
view on stackexchange narkive permalink

Zawsze miałem wrażenie, że przetaktowywanie dowolnego rodzaju procesora (na PC lub mikrokontroler) to zła rzecz. Zasadniczo używasz urządzenia poza specyfikacjami producenta, co oznacza, że ​​urządzenie może / może nie działać zgodnie z przeznaczeniem. Może działać szybciej, ale wiąże się to z ryzykiem nieregularnego zachowania.

Rozumiem, że odpowiedź na przetaktowywanie / brak podkręcania jest filozoficzna, w zależności od tego, ile ryzyka chcesz podjąć na swoich urządzeniach. Ale,

Jakie trwałe uszkodzenie może spowodować przetaktowanie procesora?

(Uwaga: pytam, ponieważ wielu moich znajomych gra i pomyśl o overclockingu roxors soxors ... iz jakiegoś dziwnego powodu po tym, jak to zrobią, ich komputery psują się z niebieskimi ekranami i wtedy ja dzwonią do mnie i chcę użyć trochę amunicji, abym nie musiał tak często rozwiązuj problemy z potencjalnie niesprawnym sprzętem ...)

"roxors soxors"?
To idiom dla entuzjastów komputerów w USA. To znaczy „to jest świetne”.
muntoo - Bezpośrednim tłumaczeniem z l33t (Leet) byłoby „skały [moje] skarpetki”, a tłumaczenie tego slangu na normalny angielski brzmi „To jest świetne”.
Trzy odpowiedzi:
Mark
2010-08-23 01:12:15 UTC
view on stackexchange narkive permalink

Przetaktowałem prawie każdy komputer (z wyjątkiem laptopów), jaki kiedykolwiek posiadałem, wyłącznie ze względu na oszczędność kosztów i sprawienie, że simy w Matlabie nie zajmują całego dnia.

Przetaktowywanie, na przykład przy zwiększaniu częstotliwości zegara lub mnożnika nie powinien uszkadzać nowoczesnych procesorów. Wyłączenie termiczne procesora powinno uruchomić się wystarczająco wcześnie, aby zapobiec uszkodzeniom. Starsze procesory nie miały tak solidnej ochrony termicznej.

Jeśli podnosisz różne napięcia, próbując działać jeszcze szybciej, możesz nieumyślnie spowodować trwałe uszkodzenie procesora. Dobrze jest trzymać się maksymalnego napięcia podanego przez producenta procesora.

W zależności od modelu użytkowania, przetaktowywanie może skrócić żywotność. Jest to tak naprawdę tylko funkcja temperatury procesora, im wyższa temperatura, tym krótsza żywotność. Jeśli procesor działa na granicy swojego współczynnika TDP 24 godziny na dobę, 7 dni w tygodniu, nie spodziewałbym się, że będzie działał przez 10 lat.

Generalnie nie używasz urządzenia poza jego specyfikacjami projektowymi, o ile pozostać w określonych poziomach napięcia. Gdy projekt jest dopracowywany, wydajność produkcji staje się coraz lepsza, a części w przedziałach do 2,6 GHz są bardzo często zdolne do pracy i testowane pod kątem znacznie wyższych prędkości, są one po prostu przenoszone do najniższego poziomu, aby zaspokoić większe zapotrzebowanie rynku na ten segment.

Obecnie piszę na rdzeniu i7 920 @ 4,1 GHz z chłodzeniem powietrzem (biorąc pod uwagę, że jest to jeden potężny radiator i 2 wentylatory 140 mm). Krok D0, nowszy krok, który może osiągnąć znacznie większe prędkości niż starsze kroki. Właściwie przeprowadziłem 12-godzinny test prime95 przy 4,25 GHz, ale coś wyższego zaczęło wyrzucać błędy i nie chciałem już zwiększać napięcia zasilania, więc cofnąłem się trochę, aby uzyskać trochę zapasu 4,1. Musisz także wziąć pod uwagę zmiany temperatury otoczenia, jeśli twoja przestrzeń nie jest klimatyzowana.

EDYCJA dla symulatora owiec:

Wpływ na baran zależy od architektury, o której mówisz i funkcje oferowane przez płytę główną.

Na przykład w architekturze core i7:

W architekturze Core i7 masz 1 zegar bazowy, który generuje zegary dla rdzenia procesora, „uncore”, QPI i RAM poprzez 4 różne mnożniki.

W niektórych modelach procesorów te mnożniki mają ograniczone zakresy, ale kluczowe dla twojego pytania: kiedy podkręcasz system, zwykle podkręcasz zegar bazowy, co również zwiększa zegar pamięci RAM. Ale możesz zmniejszyć mnożnik zegara pamięci RAM, aby uzyskać zapas lub bardzo blisko prędkości pamięci RAM, jeśli chcesz. Rdzeń i7 920 domyślnie używa pamięci RAM DDR3-1066, ale DDR3-1600 ma prawie tę samą cenę, więc większość ludzi kupuje szybszą pamięć RAM i dostosowuje mnożnik pamięci RAM, aby uzyskać ocenę 1600. Masz również kontrolę nad napięciem pamięci RAM na dobrych płytach głównych, więc masz możliwość nadmiernego napięcia / taktowania pamięci RAM, jeśli sobie tego życzysz.

W niektórych starszych architekturach kontrola nad mnożnikiem zegara pamięci RAM była ograniczona lub nie było jej wcale co może oznaczać, że potrzebujesz szybszej pamięci RAM, aby osiągnąć określony zegar procesora.

@Mark - czy przetaktowywanie nie wpływa również na pamięć RAM przy pewnych zmianach parametrów? Miałem znajomego, który przetaktował swój i5, a jego slot0 na płycie głównej został uszkodzony i spowodował błędy memtestu. Zmienił BCLOCK.
@sheepsimulator - fajna nazwa :) i sprawdź moją edycję. Krótko mówiąc, mógłby dziko podkręcić swój baran, gdyby po prostu na ślepo podkręcił BCLK bez obniżania mnożnika pamięci. Pamięć RAM na ogół nie ma zbyt dużej ochrony termicznej, jeśli w ogóle, więc musisz zwracać uwagę na zegary pamięci.
uruchomienie procesora w podwyższonej temperaturze skróci oczekiwaną żywotność procesora. Tak na marginesie, pomyślałem, że to dodam. Nadal uważam, że generalnie mój komputer będzie przestarzały, zanim mój procesor ulegnie awarii, więc nie stanowi to większego ryzyka.
Brian Carlton
2011-01-11 07:04:09 UTC
view on stackexchange narkive permalink

Głównie jest to problem termiczny. Elektromigracja może uszkodzić chip z powodu zbyt dużego prądu.

mctylr
2011-01-14 03:29:43 UTC
view on stackexchange narkive permalink

Przypomina mi to świetny mały artykuł zatytułowany Zen of Overclocking autorstwa Boba Colwella, który był głównym architektem IA-32 procesorów Intel Pentium Pro do Pentium 4 .

Niestety dokument nie jest dostępny dla ogółu społeczeństwa, ale powinien być dostępny dla członków IEEE Computer Society oraz wielu / większości sieci uniwersytetów. Został pierwotnie opublikowany w magazynie Computer, marzec 2004 (Vol. 37, nr 3), strony 9-12.

Kilka krótkich cytatów:


Streszczenie : Przetaktowywanie to duży, niekontrolowany eksperyment z działaniem systemu lepszym niż najgorszy.

... Ten numer magazynu Computer [wydanie magazynu] zwraca uwagę na to, co nazywam projektem „lepszym niż najgorszy”. W normalnym najgorszym przypadku każdy system komputerowy jest konglomeratem komponentów działających w zakresie częstotliwości, napięć zasilania i zakresów temperatur, które zostały ustawione tak, aby jednocześnie uwzględniać najgorsze wartości każdego komponentu. (Współczesne procesory tak naprawdę nie robią tego już w ten sposób, ale kiedyś tak było i najłatwiej jest myśleć o najgorszym przypadku w ten sposób.) ...

... Porównaj podejście overclockerów do spodni, może to zadziała, z wyzwaniem inżynieryjnym, przed którym stają Intel i AMD. Po pierwsze, zauważ, że to wyzwanie to nie tylko druga strona monety overclockera. Producenci chipów muszą zaprojektować i wyprodukować dziesiątki lub setki milionów chipów; overclockerzy martwią się tylko jednym. Producenci muszą wyznaczyć wymierny cel w zakresie niezawodności i nie jest to „zero awarii, nigdy”. Byłby to nieosiągalny - i niezbyt produktywny - cel, ponieważ trafienie w niego wymagałoby unikania promieniowania kosmicznego. Nawet na poziomie morza wymagałoby to więcej metrów betonu, niż jakikolwiek kupujący laptop uzna za atrakcyjny. I nawet wtedy beton tylko poprawiłby szanse. Pozostałaby grą statystyczną. ...

Wniosek

Jeśli nie będziesz nitkować zębów, niekoniecznie zgniją. Zdecydowana większość podróży samochodem nie obejmuje zginania metalu, więc po co zapinać pasy? A dlaczego nie palić? Nie wszyscy palacze chorują na raka. Albo możesz przyjąć kompromis Oscara London: „Jeśli palisz, po co zapinać pasy?”. A niektórzy muzycy rockowi z lat 60-tych wciąż żyją, więc może wszystkie te narkotyki są naprawdę korzystne, działają jak środek konserwujący. Jak dla mnie, cóż, jestem inżynierem i żyję w statystycznym świecie. Biorę pod uwagę szanse.


A jeśli chodzi o szczegóły, czy przetaktowywanie może spowodować trwałe uszkodzenie? Tak, zwłaszcza, że ​​technologia litografii poprawia się przy tworzeniu matryc o mniejszej skali (np. 35 nanometrów), zmniejsza się również grubość izolatora / tlenku. Oznacza to, że ta coraz cieńsza bariera może zawieść z powodu wysokiego napięcia lub zniszczenia. Zatem powiązany margines dopuszczalnego błędu maleje (lub rośnie margines błędu).

Uważam, że tranzystory MOSFET są nadal używane do projektowania procesorów, więc przyjrzenie się niektórym trudnościom z redukcją rozmiaru MOSFET może uwydatnić inne potencjalne problemy, które może powodować przetaktowywanie. Na poziomie systemu przetaktowywanie może również powodować wewnętrzne / międzykanałowe EMI / RFI w kości procesora lub w którymkolwiek z innych podsystemów (np. Magistrali RAM) i może zmniejszyć stosunek sygnału do szumu (SNR), tak że mechaniczny lub zewnętrzne EMI / RFI nie są już tolerowane i powodują przypadkowe błędy na szynach cyfrowych.

I dla przypomnienia, mam uszkodzone procesory z powodu głupiego przetaktowywania i słabego odprowadzania ciepła. Więc poza teorią jest to faktycznie możliwe.

Istnieją naprawdę 2 wersje przetaktowywania, z których pierwsza uruchamia urządzenie szybciej niż kiedykolwiek zostało zaprojektowane. Drugi polega na uruchomieniu części, która została umieszczona w koszu przy niższym stopniu prędkości niż jego rodzina. Pierwsza z nich z pewnością wiąże się z dużo większym niebezpieczeństwem, druga, szczególnie w późniejszych etapach kostki, jest naprawdę całkiem bezpieczna. Mam wrażenie, że linkowany artykuł dotyczył przede wszystkim tego pierwszego.
@Mark, Moje (niepełne) zrozumienie jest takie, że binning (mała kostka oceniana dla różnych prędkości) opiera się na statystycznej analizie plonów, a nie na ekonomii czysto rynkowej (koszt vs. podaż). Musisz porównać koszty utopione (NRE) z kosztami materiałów na jednostkę, aby uzyskać wskazówkę, czy kategoryzowanie było używane do maksymalizacji zysku.
... ta sama matryca, z różnymi prędkościami ...
Być może, aby wyjaśnić, wskaźnik awaryjności dla pojedynczej kostki nie jest taki sam na całej powierzchni płytki, ale uważam, że w większości przypadków jest najniższy w środku i wzrasta dla matryc na zewnętrznej krawędzi płytki. Zatem binning pozornie identycznych rdzeni matrycy jest wykonywany ze względu na prawdopodobieństwo awarii, które można złagodzić poprzez zmniejszenie prędkości lub potencjalne wyłączenie podzbioru funkcji (tj. Jeśli pamięć podręczna L2 lub FPU są częstymi miejscami niepowodzenia z powodu -ness), wersja binning może mieć wyłączoną funkcję, zmniejszając ryzyko niepowodzenia tych najbardziej zewnętrznych matryc.


To pytanie i odpowiedź zostało automatycznie przetłumaczone z języka angielskiego.Oryginalna treść jest dostępna na stackexchange, za co dziękujemy za licencję cc by-sa 2.0, w ramach której jest rozpowszechniana.
Loading...