Forum

Jak to ma sens : Asus ZenBook Pro UX501 jest o 1000 USD tańszy, ale ma lepszą specyfikację niż mbp2015

Poprzednia
  • 1
  • 2
  • 3
  • 4
Następny Najpierw Poprzednia

Idź do strony

Udać sięNastępny Ostatni

lowendlinux

24 września 2014 r.
Niemcy
  • 29 czerwca 2015 r.
SHEEPOS powiedział: Dlaczego Apple dba tylko o pieniądze ???
Asus ZenBook Pro UX501 jest o 1000 USD tańszy, ale ma lepszą specyfikację niż macbook pro 2015

To całkiem seksowne i ładne znalezisko. S

Samuelsan 2001

24 października 2013 r.


  • 29 czerwca 2015 r.
SHEEPOS powiedział: więc czy jest jakiś powód, dla którego jabłko nie poszło w tym roku na maxwell nvidia?

Ponieważ zdecydowali się na AMD, wyobrażam sobie, że powody były zbyt liczne, by je tutaj wymienić i że tylko pracownicy Apple zaangażowani w tę decyzję wiedzą, kim oni są i jak sprawdziły się zalety i wady.

Pomimo miłości do Nvidii (nie gram, więc nie obchodzi mnie to mniej), najnowsze karty AMD Fury sprawdzają się szybciej we wszystkim. Ich nowa architektura z wbudowaną pamięcią RAM wydaje się być trochę bestią z ogromnymi możliwościami przepustowości. Gdy te trafią na mobilną scenę, będziemy mogli mieć wspaniałe karty graficzne w rMBP i iMac.

lowendlinux

24 września 2014 r.
Niemcy
  • 29 czerwca 2015 r.
Samuelsan2001 powiedział: Ponieważ zdecydowali się na AMD, wyobrażam sobie, że powody były zbyt liczne, aby je tutaj wymienić i że tylko pracownicy Apple zaangażowani w tę decyzję wiedzą, kim oni są i jak sprawdziły się zalety i wady.

Pomimo miłości do Nvidii (nie gram, więc nie obchodzi mnie to mniej), najnowsze karty AMD Fury sprawdzają się szybciej we wszystkim. Ich nowa architektura z wbudowaną pamięcią RAM wydaje się być trochę bestią z ogromnymi możliwościami przepustowości. Gdy te trafią na mobilną scenę, będziemy mogli mieć wspaniałe karty graficzne w rMBP i iMac.

Fury wciąż jest zbyt gorący, by zrobić to w wersji mobilnej. Założę się, że wciąż jesteśmy na to za kilka lat. Zgadzam się, że 16 i 17 rok będą zabójczymi latami dla AMD i najwyższy czas.

Shirasaki

16 maja 2015 r.
  • 29 czerwca 2015 r.
Dark Void powiedział: Przejdę dalej i przedstawię tutaj niektóre z moich doświadczeń i porad:

Po prostu używaj tego, co lubisz. Jeśli interesujesz się systemem Windows, to super. Jeśli wolisz opłacalność notebooka z systemem Windows pod względem tego, co otrzymujesz, to też jest super. Komputery Mac nie są domyślnie lepsze niż komputery PC, komputery PC nie są domyślnie lepsze niż komputery Mac. Nie musisz bronić zakupów, budować jakości ani innych punktów widzenia na to, co składa się na komputer.

To, że Asus może ci służyć rok, a może ci 3, a nawet 4 – wszystko sprowadza się do tego, co wolisz i co wolisz robić ze swoimi pieniędzmi. W końcu to Twój komputer — nie musisz się bać ani bronić tego, co ktoś inny rozważa lub z czego jest zadowolony.

Ja, na przykład, w ogólny z kilkoma wyjątkami, uważaj, że na długowieczność komputera wpływa głównie sposób, w jaki się o niego dba – nie dlatego, że jest to Apple, Asus, Acer lub co innego. Zdaję sobie sprawę z idei i realiów jakości wykonania - ale miałem notebooka Asusa od 3 lat, za który zapłaciłem 650 USD, Lenovo Ideapad (również 650 USD), który jest nadal używany w mojej rodzinie od 3 i pół roku, i Hannspree (zgadza się - kto tu kiedykolwiek słyszał Hannspree ) netbooka, za który zapłaciłem 250 dolarów, którego używałem przez jakiś czas, a teraz używa go inny członek rodziny, który również został kupiony 3 lata temu.

Nie ma na to domyślnej odpowiedzi. Komputery Mac nie wystarczają na X lat, a notebooki z systemem Windows nie wystarczają na Y – i, jak zawsze… specyfikacje sprzętowe nie są jedynym powodem do zakupu notebooka. Istnieje wiele innych czynników, po prostu odrób pracę domową i znajdź to, co wolisz.
Mam notebooka Asusa, z przestarzałym już rdzeniem i5 2410 m procesorem, 8 GB pamięci RAM, gt 540m gpu. Używam go od pierwszego dnia do dnia, w którym wyjeżdżam z domu tutaj na wyższy stopień.

Kiedy dodaję pamięć RAM z domyślnych 2 GB do 8 GB, napotykam nie do zniesienia problem BSOD. Asus w końcu wymienił mi nową płytę główną, a potem nie ma żadnego istotnego problemu. Bardzo solidny i nadal może wykonywać przyzwoitą pracę, w tym ciężkie granie (możesz znać najwyższego dowódcę, który jest głodem GPU). Wręcz przeciwnie, wielu moich kolegów w szkole ma problem z przegrzaniem lub błędem dysku twardego.

Zgadzam się z twoim punktem widzenia. Jeśli użyjesz go ostrożnie, może wystarczyć wystarczająco długo, zanim umrze. Jeśli nie, nawet bardzo drogie rMB może stać się bezużyteczne w ciągu kilku dni. D

Martwy0k

23 kwi 2015
Polska
  • 29 czerwca 2015 r.
hopefulhandle powiedział: Piszę to na tanim laptopie Acer Windows 8.1. W ciągu roku od zakupu tego napędu DVD/CDR uległ awarii, klawisze numeryczne nad klawiaturą przestały działać; cyfry od trzech do sześciu nie działają, chociaż klawisze funkcyjne działają i mam długi kabel Ethernet wijący się po podłodze w kuchni, ponieważ karta sieci bezprzewodowej przestała działać. Wszystko w ciągu roku.
smutny z powodu twojego doświadczenia
Nadal mam eMachines (submarkę Acer) z 2011 roku i traktuję ją bardzo dobrze.
Wciąż żywy i skuteczny w większości codziennych zadań.

Więc to ma duże znaczenie, jak dbacie o swoją elektronikę.

lowendlinux

24 września 2014 r.
Niemcy
  • 29 czerwca 2015 r.
Do około 6 tygodni temu używałem Latitude E6500 z epoki 2009, mój nowy laptop to Latitude E6420 z 2011 roku. PC będzie działał tak długo, jak Mac

maflynn

Moderator
Pracownik
3 maja 2009
Boston
  • 29 czerwca 2015 r.
Dark Void powiedział: nie ma na to domyślnej odpowiedzi. Komputery Mac nie wystarczają na X lat, a notebooki z systemem Windows nie wystarczają na Y – i, jak zawsze… specyfikacje sprzętowe nie są jedynym powodem do zakupu notebooka. Jest wiele innych czynników, po prostu odrób pracę domową i znajdź to, co wolisz.

O to chodzi, chociaż zgadzam się głównie co do jakości wykonania Apple, wiele osób tutaj, które zachwalają jego jakość, zwykle kupują nowe laptopy co trzy lata. Dla mnie wolałbym wydawać 2000 co 3 lata.

Jeśli chodzi o jakość Apple, moja wiara w nie została zachwiana, z problemami z dGPU, nadal uważam, że Mac to świetne komputery i trudno mi sobie wyobrazić, że dostanę cokolwiek innego, ale jeśli wydam ponad 2000 na komputer Chciałbym mieć pewność, że dPGU nie wybuchnie za 3 lata lub powłoka antyrefleksyjna nie zacznie się łuszczyć. S

Samuelsan 2001

24 października 2013 r.
  • 29 czerwca 2015 r.
maflynn powiedział: O to chodzi, podczas gdy zgadzam się głównie co do jakości wykonania Apple, wiele osób tutaj, które zachwalają jego jakość, zwykle kupuje nowe laptopy co trzy lata. Dla mnie wolałbym wydawać 2000 co 3 lata.

Jeśli chodzi o jakość Apple, moja wiara w nie została zachwiana, z problemami z dGPU, nadal uważam, że Mac to świetne komputery i trudno mi sobie wyobrazić, że dostanę cokolwiek innego, ale jeśli wydam ponad 2000 na komputer Chciałbym mieć pewność, że dPGU nie wybuchnie za 3 lata lub powłoka antyrefleksyjna nie zacznie się łuszczyć.

Ten spokój byłby miły, ale po prostu nie dostaniesz go od nikogo, cała elektronika może zawieść, a wszystkie masowo produkowane elementy będą miały problemy w niektórych jednostkach, obawiam się, że takie życie.

Po prostu nie rozumiem, dlaczego ludzie trzymają jabłko według znacznie wyższych standardów niż wszyscy inni...

Nie możesz po prostu powiedzieć ceny, gdy wszyscy inni producenci OEM produkują komputery, które są bardzo porównywalne pod względem kosztów i specyfikacji, jeśli pozornie nie mają jakości wykonania i dbałości o szczegóły.

zmierzch007

5 grudnia 2009
  • 29 czerwca 2015 r.
Samuelsan2001 powiedział: Pomimo miłości do Nvidii (nie gram, więc nie obchodzi mnie to mniej), najnowsze karty AMD Fury sprawdzają się szybciej we wszystkim. Ich nowa architektura z wbudowaną pamięcią RAM wydaje się być trochę bestią z ogromnymi możliwościami przepustowości. Gdy te trafią na mobilną scenę, będziemy mogli mieć wspaniałe karty graficzne w rMBP i iMac.
Fury prawie nie ma miejsca na przetaktowanie, ale wciąż jest odrobinę wolniejszy niż równie duży układ 980 TI, który ma dość poważny zapas podkręcania. Fury jest znacznie lepszy niż 290x/390x, ale nadal potrzebuje więcej mocy niż Maxwell, pomimo wydajniejszej energetycznie i szybszej pamięci. Jest również chłodzony wodą.
Mogą zbliżyć się do Nvidii na komputerach stacjonarnych, gdzie działa chłodzenie wodne i całkowite zużycie energii nie jest tak ważne, ale w przypadku notebooków wydajność energetyczna to wszystko. A Fury nie może pokonać Maxwella, M370X to wciąż znacznie starsza technologia niż Fury.
Nie chodzi o kochanie Nvidii czy AMD, ale o obiektywne wyniki, w których Maxwell jest po prostu najlepszym, jaki się obecnie dzieje.
Reakcje:vbedia

koyoot

5 czerwca 2012 r.
  • 29 czerwca 2015 r.
Quu powiedział: Cóż, jeśli cofniemy się do 2013 roku, można zauważyć, że w czerwcu na WWDC 13 ogłosili Mac Pro z grafiką Dual AMD. To był początek odejścia Apple od NVIDII.

W październiku tego roku wypuścili MacBooka Pro 15' z grafiką 750m, ale był to ten sam układ, co 650m, oba keplery, ten sam pin na chipie. Wszystko, co Apple musiał zrobić, to zamienić żetony. Bardzo mała zmiana.

Przewiń do iMaca Retina, znowu AMD, teraz mamy rMBP 2015, również AMD.

Myślę, że to, co widzimy tutaj, nie polega na tym, że Apple wybiera AMD, ponieważ jest lepszy, ale dlatego, że nawiązuje bliższe relacje z AMD, jeśli chodzi o grafikę. Ta bliska współpraca zaowocowała D300, D500 i D700 dla Apple Mac Pro, które do dziś są całkowicie ekskluzywne dla Apple (chociaż są oparte na HD 7970) i ​​jako pierwsi również otrzymali M370X.

NVIDIA wydaje się być znacznie mniej elastyczna, nie będą do niej podyktowane. Nie dadzą na przykład Apple GTX 980 lub 780 Ti (wtedy) przemianowanych na Quadro D780. To właśnie AMD zrobiło dla Apple.

Więc znowu nie sądzę, że ma to coś wspólnego z wydajnością, chodzi o związek, nad którym pracują obie firmy i który wypycha NVIDIĘ z systemów Apple i myślę, że jest to szkodliwe, ponieważ Nvidia ma obecnie najszybsze części w każdej obudowie termicznej.
Czy faktycznie używałeś procesorów graficznych AMD i Nvidia do czegoś takiego jak Final Cut Pro?

Z mojego osobistego doświadczenia w zadaniach w świecie rzeczywistym, w tworzeniu treści procesory graficzne AMD są szybsze niż te od Nvidii. O wiele szybciej. R9 280X w Mac Pro 5.1 (3,46 GHz, 24 GB pamięci RAM) był szybszy niż GTX970. 40% szybciej.

Wiem, że ludzie pokażą mi benchmarki z benchmarków, które pokazują, w jaki sposób procesory graficzne Nvidia są lepsze niż AMD w wykrywaniu twarzy. OK. Ale Sony Vegas Pro to benchmark, który symuluje zadania w świecie rzeczywistym. Znowu symuluje. I nawet ten benchmark pokazuje, że w transkodowaniu np. procesory AMD są szybsze niż te od Nvidii. Jedyną rzeczą, która sprawia, że ​​Nvidia jest lepsza w oczach ludzi, jest atrakcyjność marki gier. Ale nawet to nie pokazuje całej prawdy. Na przykład w 4K R9 390X jest tylko o 20% wolniejszy od GTX980 Ti, który jest wszędzie chwalony za wydajność. Jak już widzieliśmy w grach, procesory AMD z roku na rok są coraz lepsze, podczas gdy te od Nvidii są coraz gorsze. Porównaj benchmarki r9 290X vs 780 Ti z 2013 i z 2015 roku. Są naprawdę różne. Teraz R9 290X jest szybszy.

Również DirectX, Metal i Vulkan zmienią sytuację. Przyjęcie interfejsów API o niskich kosztach było tym, czego potrzebowało AMD.

dusk007 powiedział: Fury prawie nie ma miejsca na podkręcanie, jest wciąż odrobinę wolniejszy niż równie duży układ 980 TI, który ma dość poważny zapas podkręcania. Fury jest znacznie lepszy niż 290x/390x, ale nadal potrzebuje więcej mocy niż Maxwell, pomimo wydajniejszej energetycznie i szybszej pamięci. Jest również chłodzony wodą.
Mogą zbliżyć się do Nvidii na komputerach stacjonarnych, gdzie działa chłodzenie wodne i całkowite zużycie energii nie jest tak ważne, ale w przypadku notebooków wydajność energetyczna to wszystko. A Fury nie może pokonać Maxwella, M370X to wciąż znacznie starsza technologia niż Fury.
Nie chodzi o kochanie Nvidii czy AMD, ale o obiektywne wyniki, w których Maxwell jest po prostu najlepszym, jaki się obecnie dzieje.
Okazuje się, że możesz nie mieć racji. http://forums.anandtech.com/showpost.php?p=37519644&postcount=201
Sprawdź to sam. Przed OC procesor graficzny osiągnął ogólny wynik 12 tys. i 15,5 tys.
100 MHz i GPU zaczyna latać! Wynik jest wyższy niż cokolwiek obecnie na rynku.

Edytować. O wydajności energetycznej...
Jeśli masz referencyjny procesor graficzny Nvidia, to tak, będzie zużywał mniej energii niż procesor graficzny AMD. Jednak referencyjny GTX 970 z limitem zegara BIOS będzie 3 razy wolniejszy niż R9 280X. Jeśli masz niereferencyjnego GTX 970, w BIOS-ie nie będzie limitu zegara i będzie on tylko 40% wolniejszy. Problem polega na tym, że podczas pracy OPENCL pobiera 270W mocy.
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html Tutaj masz dowód. Ostatnia edycja: 29.06.2015

koyoot

5 czerwca 2012 r.
  • 29 czerwca 2015 r.
Quu powiedział: pomyślałem to samo, ale jeśli spojrzysz na testy Maxwell OpenCL, wszystkie karty nVIDII depczą AMD.

Naprawdę. Spójrz na 970 lub 980 lub Titan, Titan X lub 980 Ti. Przede wszystkim karty AMD w testach OpenCL. Ta sama sytuacja w wersjach mobilnych 950m i 960m.

Starsze karty keplerowe NVIDII były straszne w OpenCL absolutnie beznadziejne, 70-90% wolniejsze niż AMD. Ale karty Maxwell są o 10-50% szybsze niż AMD w tych samych segmentach rynku.

Nawet ja byłem zaskoczony, gdy się o tym dowiedziałem, kiedy ostatnio badałem benchmarki, sprawdź to: https://i.imgur.com/wiK5ZSG.png'bbCodeBlock-expandLink js-expandLink'>
Nie są szybsze w ZADANIACH NA RZECZYWISTYM ŚWIECIE! Użyj procesora graficznego Maxwell dla Final Cut Pro, a wyrzucisz go i wrócisz do rozwiązania AMD. Testowałem GTX970 i R9 280X w Final Cut Pro, a GPU AMD było o 40% szybsze!

Test porównawczy Sony Vegas Pro pokazuje tylko przebłysk różnicy między procesorami graficznymi AMD i Nvidia w transkodowaniu, ale jest to dość duża skala.

Kto

2 kwi 2007
  • 29 czerwca 2015 r.
koyoot powiedział: Czy faktycznie używałeś procesorów graficznych AMD i Nvidia do czegoś takiego jak Final Cut Pro?

Nie mam. Spojrzałem tylko na testy porównawcze ogólnej wydajności OpenCL. Jeśli masz jakieś linki do testów porównawczych pokazujących różnice w zestawach wideo, chciałbym się im przyjrzeć, aby się edukować.

koyoot powiedział: W REAL WORLD TASKS nie są szybsze! Użyj procesora graficznego Maxwell dla Final Cut Pro, a wyrzucisz go i wrócisz do rozwiązania AMD. Testowałem GTX970 i R9 280X w Final Cut Pro, a GPU AMD było o 40% szybsze!

Test porównawczy Sony Vegas Pro pokazuje tylko przebłysk różnicy między procesorami graficznymi AMD i Nvidia w transkodowaniu, ale jest to dość duża skala.

Ponownie, jeśli masz jakieś testy porównawcze, chętnie na nie rzucę.

koyoot

5 czerwca 2012 r.
  • 29 czerwca 2015 r.
Mogę dać tylko to, co sam przetestowałem. Żadna z recenzji, które widziałem, nie testowała rzeczywistych testów porównawczych, z wyjątkiem symulacji obciążenia w świecie rzeczywistym Sony Vegas Pro. I to są punkty odniesienia.

Kto

2 kwi 2007
  • 29 czerwca 2015 r.
Myślę, że coś do rozważenia to fakt, że Apple tak naprawdę nie dostarcza GTX 970 lub 980 w żadnym ze swoich systemów, więc nie spodziewałbym się, że Final Cut Pro będzie na nim śpiewać. Nie spodziewałbym się również, że programiści zewnętrzni skupią się na tym sprzęcie.

Ale jeśli wszystkie testy OpenCL pokazują, że NVIDIA jest szybsza, to prawdopodobnie coś w tym jest. OpenCL to przecież tylko API do wykonywania zadań na GPU.

koyoot

5 czerwca 2012 r.
  • 29 czerwca 2015 r.
Nie. Nie wszystkie.
http://scr3.golem.de/screenshots/15...uxmark-v3-(complex-scene,-gpu-only)-chart.png'http://s28.postimg.org/a8bdgk7pp/Capture.png ' class='link link--external' rel='nofollow ugc noopener'>http://s28.postimg.org/a8bdgk7pp/Capture.png'js-selectToQuoteEnd'>

Kto

2 kwi 2007
  • 29 czerwca 2015 r.
koyoot powiedział: Nie. Nie wszystkie.
http://scr3.golem.de/screenshots/15...uxmark-v3-(complex-scene,-gpu-only)-chart.png'http://s28.postimg.org/a8bdgk7pp/Capture.png ' class='link link--external' rel='nofollow ugc noopener'>http://s28.postimg.org/a8bdgk7pp/Capture.png'bbCodeBlock-expandLink js-expandLink'>

Ok, przede wszystkim uspokój się. Po drugie, ani razu nie wspomniałem o wykrywaniu twarzy, to wszystko. Benchmark OpenCL, który opublikowałem kilka stron wstecz, to renderowanie sceny OpenCL. Możesz go zobaczyć tutaj, jeśli chcesz rzucić okiem:
https://i.imgur.com/wiK5ZSG.png'js-selectToQuoteEnd '>

koyoot

5 czerwca 2012 r.
  • 29 czerwca 2015 r.
Nie zamieściłem tego linku z powodu Fury'ego. Masz tam GPU Grenada/Hawaii i GM204. Również Grenada okazuje się w niektórych zadaniach szybsza niż GTX Titan X.

Ponadto Luxmark v2.1 to stary benchmark. Luxmark v3 jest taki sam, ale nowszy i bardziej złożony. To jak porównywanie wyników 3dMark Vantage z 3dMark FireStrike. Drugi jest nowszy, bardziej złożony i pokazuje nieco więcej niż stary.

Trzeci. Jestem całkowicie spokojna. Po prostu nie kupuję wszystkiego, co jest w recenzjach. Jeśli chcesz wierzyć, że procesory graficzne Maxwell są lepsze pod względem mocy obliczeniowej, a tak nie jest, to zależy od Ciebie. Wiem, że nie wszystko, co pojawia się w recenzjach, jest prawdą i zawsze staje się przestarzałe z każdą nową wersją sterowników/technologii, która się pojawia.

Kto

2 kwi 2007
  • 29 czerwca 2015 r.
koyoot powiedział: Nie opublikowałem tego linku z powodu Fury'ego. Masz tam GPU Grenada/Hawaii i GM204. Również Grenada okazuje się w niektórych zadaniach szybsza niż GTX Titan X.

Ponadto Luxmark v2.1 to stary benchmark. Luxmark v3 jest taki sam, ale nowszy i bardziej złożony. To jak porównywanie wyników 3dMark Vantage z 3dMark FireStrike. Drugi jest nowszy, bardziej złożony i pokazuje nieco więcej niż stary.

Trzeci. Jestem całkowicie spokojna. Po prostu nie kupuję wszystkiego, co jest w recenzjach. Jeśli chcesz wierzyć, że procesory graficzne Maxwell są lepsze pod względem mocy obliczeniowej, a tak nie jest, to zależy od Ciebie. Wiem, że nie wszystko, co pojawia się w recenzjach, jest prawdą i zawsze staje się przestarzałe z każdą nową wersją sterowników/technologii, która się pojawia.

Nie mówię, że nie wierzę we wzorce, które podzieliłeś. Po prostu nie sądzę, że jest tak czarno-biały, jak sobie wyobrażasz, wiele różnic mieści się w granicach kilku punktów procentowych, jeśli zdyskontujemy Fury X, co moim zdaniem nie powinno być, ponieważ prawdopodobnie będzie używane w Odświeżanie Maca Pro.

I zgadzam się, że nowsze benchmarki powinny być skoncentrowane. Nie jestem fanboyem Luxmarka, nic o tym nie wiem, właśnie wygooglowałem OpenCL Maxwell i to był hit.

Popijaj lemoniadę i ciesz się ciepłą pogodą.

zmierzch007

5 grudnia 2009
  • 29 czerwca 2015 r.
koyoot powiedział: Okazuje się, że możesz nie mieć racji. http://forums.anandtech.com/showpost.php?p=37519644&postcount=201
Sprawdź to sam. Przed OC procesor graficzny osiągnął ogólny wynik 12 tys. i 15,5 tys.
100 MHz i GPU zaczyna latać! Wynik jest wyższy niż cokolwiek obecnie na rynku.
Możesz przyjrzeć się bliżej. Wynik skoczył z domyślnego 14 tys. do 17 tys., podczas gdy Maxwell OC osiągnął 19,4 tys. (przy chłodzeniu powietrzem)
http://uk.hardware.info/reviews/615...-flag-ship-graphics-card-overclocking-results
Fury jest świetną wartością na komputerach stacjonarnych, ponieważ otrzymujesz ładny i stosunkowo cichy system chłodzenia wodą, który sam w sobie przywróciłby ci sporo pesetów. AMD powiedziało również, że OC pamięci jest bezcelowe na tych procesorach graficznych, więc mam wątpliwości co do wyników podkręcania. Sprawdzam kilka wątków na forum i żaden nie znalazłem niczego, co potwierdzałoby te wyniki. Takiego przetaktowania nie udało się osiągnąć, a podkręcenie pamięci do 50 MHz nie dało nic wartościowego.
koyoot powiedział: Edytuj. O wydajności energetycznej...
Jeśli masz referencyjny procesor graficzny Nvidia, to tak, będzie zużywał mniej energii niż procesor graficzny AMD. Jednak referencyjny GTX 970 z limitem zegara BIOS będzie 3 razy wolniejszy niż R9 280X. Jeśli masz niereferencyjnego GTX 970, w BIOS-ie nie będzie limitu zegara i będzie on tylko 40% wolniejszy. Problem polega na tym, że podczas pracy OPENCL pobiera 270W mocy.
http://www.tomshardware.com/reviews/nvidia-geforce-gtx-980-970-maxwell,3941-12.html Tutaj masz dowód.
280X to średnio 20-30% wolniejsza karta niż 970 w pracy 3D. Praca z OpenCL i test warunków skrajnych to nie to samo. Teoretycznie można by uzyskać takie sekwencje obciążenia, ale w rzeczywistości większość ławek CL nie zbliża się do nich.
Wiele słabości, które Nvidia pokazuje w takich scenariuszach komputerowych, to czysto sterownik.
Porównaj quadro M6000 z czymś takim jak Firepro W9100.
http://www.tomshardware.de/quadro-m...ikkarte-benchmarks,testberichte-241756-7.html
Maxwell jest całkiem dobry we wszystkich tych scenariuszach, tak się składa, że ​​Nvidia nie chce, aby jej karty konsumenckie były dobre w scenariuszach stacji roboczych. Ponieważ Apple jest odpowiedzialny za znaczną część sterownika w OSX, nie mieliby celowo osłabionej wydajności w tego rodzaju scenariuszach obciążenia pod OSX. Prawdopodobnie nie do końca wydajność systemu Windows, ale nie jest to wyraźna różnica między wydajnością stacji roboczej a wydajnością konsumencką. m

mickeydean

9 grudnia 2011
  • 29 czerwca 2015 r.
Jesteśmy w punkcie, w którym Apple musi spróbować przewodzić na rynku. Rozumiem, że jeśli chodzi o przychody i logistykę, robi to cyklicznie, podczas gdy producenci komputerów PC są bardziej zwinni. Rynek „pro” mógłby być lepiej pielęgnowany z opcjami na więcej. Nie wierzę, że posiadanie 750m to pewna wizja komputerów, ale raczej kupowanie hurtowo i używanie tańszego, słabszego chipa dla oszczędności energii, ceny itp. Są tacy, którzy zapłaciliby za 970m, ale projekty teraz do pewnego stopnia forma wartości nad funkcją.

koyoot

5 czerwca 2012 r.
  • 29 czerwca 2015 r.
Dusk, powiedz mi dlaczego, Luxmark v2 pokazuje, że GM200 jest szybszy niż Hawaii GPU, a Luxmark v3 pokazuje, że Hawaii GPU jest szybszy niż GM200? Oba to te same żetony. Nie ma paraliżu wydajności, ponieważ Maxwell w DP to ...t. Różnią się tylko nazwami. Jak to możliwe, że starsza ławka pokazuje przewagę GPU Maxwell, a nowsza pokazuje zalety GPU Hawaii?

http://scr3.golem.de/screenshots/15...uxmark-v3- (scena złożona, -gpu-only) -chart.png'js-selectToQuoteEnd '> J

joe-h2o

24 czerwca 2012 r.
  • 29 czerwca 2015 r.
inhalexhale1 powiedział: 960m jest o 60% szybszy niż m370x. Nie sądzę, że jest przereklamowana, ale raczej preferowana karta do niższej klasy AMD, którą Apple wybrał do tego odświeżenia. 950m to też znacznie lepsza karta. Zgadzam się z reklamacjami. Apple ma taką samą cenę jak zawsze i chociaż nowa karta jest mocniejsza, jest to krok w dół w ogólnej klasie.

960M jest również o 50% bardziej energochłonny niż 370x, który nie będzie latał w i tak już napiętej konstrukcji TDP. Najlepsze, co Apple może zrobić, to 950M, który jest podobny do oferty AMD, może trochę lepszy. Dlaczego nie poszli na Nvidię, nie mam pojęcia.

lowendlinux

24 września 2014 r.
Niemcy
  • 29 czerwca 2015 r.
Panowie, nie sądzę, abyśmy mieli zamiar rozwiązać ten problem tutaj i połączyć rzeczy, o których teraz mówimy o wysokiej klasy procesorach graficznych do komputerów stacjonarnych w sekcji MacBook Pro.
Reakcje:pełen nadziei uchwyt

koyoot

5 czerwca 2012 r.
  • 29 czerwca 2015 r.
Nie posunąłbym się tak daleko ze zużyciem energii. GTX960 powinien mieścić się w zakresie 35-45W poboru mocy. A patrząc na recenzję MBP notebookcheck, wygląda na to, że pobór mocy jest dość wysoki, ponieważ może przekroczyć granicę zasilania nawet 85W, o 6W. Więc nie powiedziałbym, że jest bardziej głodny mocy niż M370X.

Nie powiedziałbym też, że jest o 60% szybszy niż M370X, ponieważ wydajność w Final Cut Pro będzie znacznie wyższa na chipie AMD niż jakikolwiek GPU Maxwell dostępny z budżetem mocy 45 W.

W grach prawdopodobnie GPU Nvidii będzie nawet o 60% szybsze. Ale gry to nie wszystko.

Kto

2 kwi 2007
  • 29 czerwca 2015 r.
koyoot powiedział: Nie posunąłbym się tak daleko ze zużyciem energii. GTX960 powinien mieścić się w zakresie 35-45W poboru mocy. A patrząc na recenzję MBP notebookcheck, wygląda na to, że pobór mocy jest dość wysoki, ponieważ może przekroczyć granicę zasilania nawet 85W, o 6W. Więc nie powiedziałbym, że jest bardziej głodny mocy niż M370X.

Nie powiedziałbym też, że jest o 60% szybszy niż M370X, ponieważ wydajność w Final Cut Pro będzie znacznie wyższa na chipie AMD niż jakikolwiek GPU Maxwell dostępny z budżetem mocy 45 W.

W grach prawdopodobnie GPU Nvidii będzie nawet o 60% szybsze. Ale gry to nie wszystko.

GTX 960m ma 75 watów, 950m to 45 watów, M370X ma 50 watów (podobno). Poprzednia
Następny Najpierw Poprzednia

Idź do strony

Udać sięNastępny Ostatni