Zanika rynek rdzeni graficznych
Analitycy z firmy Jon Peddie Research uważają, że do roku 2012 rynek tradycyjnych zintegrowanych rdzeni graficznych przestanie istnieć. Zostanie on zastąpiony innymi rozwiązaniami.
Najpierw w latach 2010-2012 będziemy świadkami integrowania procesorów graficznych jako osobnych kości na płycie głównej. Później GPU zostaną połączone z CPU. Tym samym rdzenie graficzne w chipsecie stracą rację bytu.
Już w pod koniec bieżącego roku na rynek ma trafić 32-nanometrowy procesor Intela o kodowej nazwie Arrendale. Producent zintegruje w nim CPU z GPU. W 2011 roku będzie można kupić podobny produkt AMD.
Polecają
Komentarze (6)
patrykus, 5 marca 2009, 13:33
Myślę, że to dobry kierunek. O ile będziemy mieli różne opcje "graficzne" procesorów do wyboru nie będzie źle. A napewno PCty w końcu poddane zostaną terapii odchudzającej
thibris, 5 marca 2009, 13:44
Kierunek dobry, ale pewnie prędko zanik GPU nie nadejdzie. Pamiętam moją pierwszą kartę graficzną (Tseng ET6100), która miała aż 1mb pamięci i mogła wyświetlać tylko grafikę 2D. Jakoś do dzisiaj, przez tyle lat grafiki 2D nie trafiły w objęcia CPU.
Przy sprzęcie low-end na pewno jest to rewelacyjne rozwiązanie. W końcu liczy się miejsce i kasa. Nie wyobrażam sobie CPU(GPU inside) który mógłby zagrozić dzisiejszym kartom grafiki.
Hmm... Żyjemy w zaiste ciekawych czasach. Z jednej strony CPU chce wchłonąć GPU by stać się samowystarczającą jednością, z drugiej GPU stara się podkradać część zadań CPU, gdyż ten drugi sobie z nimi tak dobrze nie radzi. Zobaczymy czym się to skończy.
cyberant, 5 marca 2009, 17:48
integrowanie CPU z GPU będzie, ale tylko w low end'owych maszynach. Tam gdzie liczy sięprawdziwa wydajność nigdy to nei nastąpi. Szczególnie że rozwój GPU i CPU zmierza w oddzielnych kierunkach. Jedne idą na uniwersalność, uruchamianie wielu różnych aplikacji/wątków, a drugie na specjalizację - głównie długie cykle bez przewidywania skoków, olbrzymie strumienie danych wykonywanych krok po kroku.
Po za tym koszt, chyba taniej wyprodukować dwie mniejsze kości, niż jedną olbrzymia z wielkim poborem mocy...
Chociaż kiedyś było coś takiego co się nazywało koprocesor matematyczny wyprowadzone w osobnym układzie i były 386SX/DX i inne a teraz wszystko jest w jednym chipie...
Patrząc w ten sposób, to niebawem spód laptopa będzie jednym wielkim scalakiem z wyprowadzeniami... i kilka przetworników AC/CA
Gość derobert, 5 marca 2009, 20:51
A ja jak przez mgłę pamiętam swoją pierwszą kartę graficzną z prawdziwego zdarzenia, Palit Daytona + na osobnej karcie akcelerator 3DFx Za wszystko zapłaciłem pare stówek
lucky_one, 5 marca 2009, 21:44
Też uważam, że gdy w grę wchodzi wysoka wydajność, a nie niska cena, to łączenie cpu i gpu jest nieefektywne. Po pierwsze, oba produkują dużo ciepła, które może być ciężko odprowadzić. A jeśli te 'centra ciepła' rozdzielimy na dwa, no to chłodzenie ma w każdym z nich jakby połowę pracy do wykonania..
Kolejną rzeczą jest pamięć. Jeśli byłaby wspólna w takim hybrydowym cgpu, to mogłyby być problemy z jej przydzielaniem - tak jak jest w laptopach, w których karty graficzne nie mają osobnej pamięci, tylko korzystają z ramu. Na pewno niejedna osoba miała problemy z uruchomieniem np gry i kilku aplikacji w tle.
Poza tym uważam, że łączenie cpu i gpu wcale nie jest dobrą drogą - użyteczne może być tylko w przypadku maszyn low-end. Powodem jest kłopot z konfigurowaniem sprzętu do różnych zadań. Gdy mamy 3 różne cpu i 3 różne gpu, to łącznie mamy 9 różnych ich konfiguracji. Czyli zamiast produkować 9 różnych układów produkujemy tylko 6. Gdy jest 4x4, to mamy już 16 kombinacji, a układów tylko 8. Gdy mamy 20x20 (co namniej tyle jest na rynku) to kombinacji wychodzi 400, a układów tylko 40.. Jak widać jeśli chcemy mieć komputery modułowe, które można przystosowywać do różnych zadań (oraz zależnie od zasobów kieszeni), to znacznie bardziej opłaca się produkować oddzielne układy cpu i gpu.
Jedynym sensownym powodem hybrydyzacji cpu i gpu było by zwiększenie mocy cpu - bo gpu mogą pracować znacznie szybciej (choć tylko w niektórych zadaniach, ale wzrost mocy byłby na pewno). Niemniej uważam, że nawet wtedy powinniśmy mieć cpu zhybrydyzowane z gpu jako taki jakby CPU, a do przetwarzania grafiki w dalszym ciągu osobny gpu.
Revo, 6 marca 2009, 00:54
Właściwie jedynym praktycznym efektem tego zjawiska (z punktu widzenia użytkownika) może być co najwyżej zastosowanie tego rozwiązania do zaoszczędzenia energii - czyli możliwości całkowitego wyłączenia normalnej mocnej karty graficznej, gdy jej nie potrzebujemy. Ze względów konstrukcyjnych, nie ma co liczyć na wydajne karty zintegrowane.