Forum

Wykorzystanie procesora graficznego M1 zmniejsza pulę pamięci?

m

Majormike

Oryginalny plakat
15 maja 2012
  • 31 stycznia 2021
Cześć,

Ile pamięci RAM zajmuje M1 z puli pamięci, aby uruchomić GPU?

Chcę go zdobyć do produkcji muzycznej i byłbym zadowolony z 16 koncertów, ale nie jestem pewien, ile pamięci używa GPU, zwłaszcza z zewnętrznym wyświetlaczem?

osnowa9

8 czerwca 2017 r.
  • 31 stycznia 2021
Do uruchomienia wyświetlacza potrzeba tylko kilku megabajtów, ale procesory graficzne są również używane do uczenia maszynowego, tablic pikseli i specjalistycznych obliczeń. To naprawdę zależy od używanego oprogramowania.

Rozejrzyj się po preferencjach i sprawdź, czy możesz dostrzec ustawienia GPU. Na przykład Photoshop może intensywnie korzystać z procesorów graficznych, ale można go również wyłączyć.
Reakcje:opancerzony W

Wizec

30 cze 2019


  • 31 stycznia 2021
Do grania w rozdzielczości 1080p przy wysokich lub bardzo wysokich ustawieniach graficznych z włączonym AA potrzebujesz pamięci wideo od 4 GB do 6 GB

Ile pamięci wideo (VRAM) potrzebujesz do gier w 2021 roku?

Dowiedz się, ile pamięci wideo (VRAM) potrzebujesz w karcie graficznej do grania w różnych rozdzielczościach i ustawieniach graficznych we współczesnych najnowszych grach AAA. Pamięć wideo lub VRAM to szybka pamięć DRAM (dynamiczna pamięć RAM) używana w dyskretnych kartach graficznych lub kartach wideo. To jest pamięć buforowa, po prostu... grafikacardhub.com
jeśli nie grasz, prawdopodobnie tylko kilkaset MB w zależności od rozdzielczości monitora i głębi kolorów. Gdy dojdziesz do 4K i milionów kolorów, może być znacznie wyższy, nawet w przypadku zadań takich jak przeglądanie stron internetowych:

Jedyny potencjalny problem, jaki znaleźliśmy, dotyczył testów przeglądania stron internetowych 4k, w których nasze rejestrowanie wykazało, że karty wideo wykorzystują aż 1260 MB pamięci wideo. Aby spojrzeć na to z innej perspektywy, jest to około 3 razy więcej pamięci wideo, które zostałyby użyte, gdybyśmy wykonali te same zadania na monitorze 1080p.

Wymagania i użytkowanie monitora 4K

Wyświetlacze 4k mają około cztery razy więcej pikseli niż standardowe wyświetlacze 1080p, co skutkuje ogromną poprawą jakości obrazu. Ale ponieważ technologia jest wciąż stosunkowo nowa, pojawia się wiele pytań i nieporozumień dotyczących tego, czego potrzebujesz, aby uruchomić monitor 4k. W celu... www.pugetsystems.com Ostatnia edycja: 31 stycznia 2021
Reakcje:Tagbert TEN

leman

14 paź 2008
  • 1 lut 2021
majormike powiedział: Cześć,

Ile pamięci RAM zajmuje M1 z puli pamięci, aby uruchomić GPU?

Chcę go zdobyć do produkcji muzycznej i byłbym zadowolony z 16 koncertów, ale nie jestem pewien, ile pamięci używa GPU, zwłaszcza z zewnętrznym wyświetlaczem?

Nie martwiłbym się tym. Wszystkie systemy rezerwują trochę pamięci do obsługi podstawowych funkcji, pod tym względem M1 nie różni się zbytnio od maszyn Intela. GPU nie będzie kanibalizować pamięci RAM. Nie wspominając o tym, że oprogramowanie do produkcji muzyki prawdopodobnie wykorzystuje procesor graficzny do przetwarzania. m

Modernape

21 czerwca 2010
  • 1 lut 2021
Procesor graficzny M1 nie ma przydzielonej pamięci RAM, tak jak maszyny Intela, gdzie procesor graficzny miałby być może 1,5 GB odłożonego na bok, którego procesor nie mógłby w związku z tym wykorzystać. Jeśli nie używasz GPU tak mocno, większość pamięci RAM będzie dostępna dla procesora.
Reakcje:mds1256 i LeeW TEN

leman

14 paź 2008
  • 1 lut 2021
Modernape powiedział: Procesor graficzny M1 nie ma przydzielonej pamięci RAM, tak jak komputery Intela, gdzie procesor graficzny miałby być może 1,5 GB odłożonego na bok, którego procesor nie mógłby w związku z tym wykorzystać. Jeśli nie używasz GPU tak mocno, większość pamięci RAM będzie dostępna dla procesora.

Skąd ty to wiesz? m

Modernape

21 czerwca 2010
  • 1 lut 2021
leman powiedział: Skąd to wiesz?
ujednolicona architektura pamięci m1 soc - Wyszukiwarka Google
Reakcje:mds1256, chabig i konsumpcjonizm TEN

leman

14 paź 2008
  • 1 lut 2021
Modernape powiedział: ujednolicona architektura pamięci m1 soc - Wyszukiwarka Google

Jak to ma wspierać twierdzenie, które składasz? Pytam o to – czy macie jakieś faktyczne dowody lub odniesienie do źródła przedstawiającego takie faktyczne dowody, że alokacja pamięci GPU działa inaczej na procesorach graficznych Intela i Apple? Oba używają zunifikowanej architektury pamięci z pamięcią podręczną ostatniego poziomu współdzieloną między procesorem i GPU. M1 zdecydowanie rezerwuje trochę pamięci do wykorzystania przez GPU, choć nie jestem pewien ile. m

Modernape

21 czerwca 2010
  • 1 lut 2021
leman powiedział: Jak to ma wspierać twierdzenie, które wysuwasz? Pytam o to – czy macie jakieś faktyczne dowody lub odniesienie do źródła przedstawiającego takie faktyczne dowody, że alokacja pamięci GPU działa inaczej na procesorach graficznych Intela i Apple? Oba używają zunifikowanej architektury pamięci z pamięcią podręczną ostatniego poziomu współdzieloną między procesorem i GPU. M1 zdecydowanie rezerwuje trochę pamięci do wykorzystania przez GPU, choć nie jestem pewien ile.
Wow, musiałeś szybko przeczytać te artykuły. Zaczekaj. Nie czytałeś ich, prawda.
Reakcje:mds1256, jerryk i chabig TEN

leman

14 paź 2008
  • 1 lut 2021
Modernape powiedział: Wow, musiałeś szybko przeczytać te artykuły. Zaczekaj. Nie czytałeś ich, prawda.

Jestem pewien, że przeczytałem najistotniejsze z nich. Zajmuję się również analizą techniczną i testami porównawczymi niskopoziomowych procesorów graficznych M1 odkąd dostałem swoją jednostkę w grudniu. Z tego też powodu pytam, może są jakieś nowe informacje techniczne, o których jeszcze nie wiem. C

chabig

6 września 2002 r.
  • 1 lut 2021
Na twoje pytanie nie można odpowiedzieć. To tak, jakby zapytać, ile pamięci używa TextEdit. Wszystko zależy od tego, co robisz. CPU i GPU współdzielą pamięć RAM zgodnie ze swoimi potrzebami, która zmienia się z chwili na chwilę.

Oto odniesienie do Apple:

Poznaj nową architekturę systemu krzemowych komputerów Mac firmy Apple — WWDC20 — Filmy — Apple Developer

Dowiedz się, w jaki sposób komputery Mac z układem krzemowym firmy Apple zapewnią nowoczesne korzyści dzięki architekturze System-on-Chip (SoC) firmy Apple. Wykorzystując zunifikowaną... programista.apple.com
Cytat,
Zbudowanie wszystkiego w jednym układzie zapewnia systemowi ujednoliconą architekturę pamięci.

Oznacza to, że procesor graficzny i procesor pracują na tej samej pamięci. Zasoby graficzne, takie jak tekstury, obrazy i dane geometryczne, mogą być efektywnie współdzielone między procesorem a procesorem graficznym, bez dodatkowych kosztów, ponieważ nie ma potrzeby kopiowania danych przez magistralę PCIe.

Krevnik

8 września 2003 r.
  • 1 lut 2021
leman powiedział: Jestem całkiem pewien, że przeczytałem najistotniejsze z nich. Zajmuję się również analizą techniczną i testami porównawczymi niskopoziomowych procesorów graficznych M1 odkąd dostałem swoją jednostkę w grudniu. Z tego też powodu pytam, może są jakieś nowe informacje techniczne, o których jeszcze nie wiem.

Chipy Intel do komputerów stacjonarnych i laptopów nie używają UMA, używają pamięci współdzielonej. W przypadku Intela GPU musi być przydzielony do użycia partycjonowanej pamięci RAM. Procesor nie może uzyskać dostępu do partycji przydzielonej do GPU i odwrotnie. Więc nadal musisz kopiować dane między partycjami.

Cała różnica między pamięcią ujednoliconą a pamięcią współdzieloną polega na braku partycjonowania. GPU i CPU mają dostęp do tego samego bloku pamięci. W porównaniu z Intelem zapewnia dwie konkretne korzyści:

1. Bez konieczności wstępnego przydzielania pamięci RAM do wykorzystania jako pamięć wideo, nie musisz radzić sobie z określonymi ograniczeniami pamięci wideo (wspomniane wcześniej 1,5 GB) i możesz łatwiej zrównoważyć zapotrzebowanie na CPU i GPU.
2. Brak konieczności kopiowania buforów oznacza pewne wymierne oszczędności pamięci RAM, mniejszą presję na przepustowość pamięci i niewielkie zwiększenie opóźnień.

Te korzyści są powodem, dla którego konsole do gier używają UMA. Oszczędność pamięci i opóźnień pomaga obniżyć koszty potrzebnej pamięci GDDR.
Reakcje:pancerny i jdb8167 TEN

leman

14 paź 2008
  • 1 lut 2021
Krevnik powiedział: Chipy Intel do komputerów stacjonarnych i laptopów nie używają UMA, używają pamięci współdzielonej. W przypadku Intela GPU musi być przydzielony do użycia partycjonowanej pamięci RAM. Procesor nie może uzyskać dostępu do partycji przydzielonej do GPU i odwrotnie. Więc nadal musisz kopiować dane między partycjami.

Dokumentacja firmy Intel nie zgadza się z Tobą.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
O ile uzupełniam, Intel używa zunifikowanej pamięci przynajmniej od Sandy Bridge, a może wcześniej. Mogą istnieć pewne ograniczenia, ale nie na 100%. Ostatnia edycja: 1 lutego 2021
Reakcje:AAPLGeek T

bagaż

29 lipca 2011 r.
  • 1 lut 2021
majormike powiedział: chcę go zdobyć do produkcji muzycznej i byłbym zadowolony z 16 koncertów, ale nie jestem pewien, ile pamięci używa GPU, zwłaszcza z zewnętrznym wyświetlaczem?
Chyba że ktoś zgłosi się z odczytami ciśnienia pamięci z 16-gigabajtowej maszyny M1 działającej z czymś zbliżonym do zamierzonego obciążenia — zgadnij. „Produkcja muzyki” to kawałek struny na początek (wykorzystanie pamięci RAM zależy całkowicie od tego, jakiego rodzaju wirtualnych instrumentów i wtyczek używasz). Niektóre aplikacje muzyczne mają dość rozbudowane interfejsy użytkownika, a uruchomienie kilku wyświetlaczy o wysokiej rozdzielczości będzie wymagało więcej pamięci RAM przydzielonej do wideo – zwłaszcza jeśli używasz trybów skalowanych, w których wszystko jest renderowane do wewnętrznego bufora, a następnie próbkowane w dół.

Szanse są takie, że M1 nie tylko wykona twoją pracę, ale wykona ją szybciej, ponieważ jest ogólnie bardziej wydajny, a to, co tracisz na rondach, zyskujesz na huśtawkach - a było wiele demonstracji na Youtube pokazujących, jak działa mnóstwo utworów i instrumentów Logic Pro.

Jednak bezpiecznym założeniem jest to, że jeśli Twój przepływ pracy faktycznie potrzebował więcej niż 16 GB na Intelu, to przynajmniej będzie korzyść z ponad 16 GB w Apple Silicon i najlepiej byłoby poczekać na pojawienie się wyższej klasy systemów Apple Silicon. Nawet jeśli M1 może obecnie przewyższają high-endowego iMaca Intela lub 16-calowego MBP, za sześć miesięcy zostanie mu skopany piasek w twarz – ta dziwna przerwa, w której komputery Mac klasy podstawowej najwyraźniej przewyższają droższe, nie potrwają długie - Apple nie może sobie na to pozwolić lub trafi do sprzedaży komputerów Mac z wyższej półki.

To powiedziawszy, musisz mieć pewność, że naprawdę w pierwszej kolejności potrzebujesz całej pamięci RAM na komputerze Intel Mac (spójrz na ciśnienie pamięci).

Jeśli chodzi o pamięć wideo, M1 jest prawie na pewno lepszy niż MacBook lub Mini ze zintegrowaną grafiką Intela. Vs. iMac, który tylko ma osobny procesor graficzny z 8 GB+ pamięci VRAM, trudno powiedzieć.

(Musisz też dokładnie sprawdzić, czy wszystkie potrzebne wtyczki, sterowniki itp. są już kompatybilne z Big Sur, nie mówiąc już o M1...)

Modernape powiedział: Wow, musiałeś szybko przeczytać te artykuły. Zaczekaj. Nie czytałeś ich, prawda.

Mówienie komuś, aby skutecznie „przeszedł na Google”, nie jest szczególnie pomocne, gdy w Internecie płyną fałszywe informacje i bezpodstawne spekulacje. Wszystko co widziałem od Apple była bardzo niejasna, bardziej marketingowa niż techniczna i sprowadzała się do „Ujednolicona pamięć jest szybsza, ponieważ dane nie muszą być kopiowane między urządzeniami”, co nie mówi nic o tym, jak przydzielana jest pamięć RAM. Wszystko, co otrzymujesz dzięki wyszukiwarce Google, to wiele witryn technicznych spekulujących na tych samych ograniczonych danych Apple. Możliwość, że równoważna pamięć VRAM zostanie przydzielona „na żądanie”, jest bardzo prawdopodobną spekulacją – ale chyba że ktoś może wskazać na Dokument Apple że szczegóły to, to jest spekulacja.

Rzeczywistość wydaje się być tą zunifikowaną pamięcią jest bardziej wydajny - ale Jak bardziej wydajny jest trudny do przetestowania i trudny do odizolowania od innych przyrostów wydajności M1 (… co może wyglądać znacznie mniej imponująco, gdy pojawią się komputery Mac z wyższej półki Apple Silicon).

Wiele materiałów z YouTube wydaje się pochodzić od ludzi, którzy nie rozumieją różnicy między „wykorzystaną pamięcią” a „ciśnieniem pamięci” lub „zamień używaną” i zamień wskaźnik - lub szukasz przyspieszenia związanego z pamięcią RAM w przepływach pracy, które nie obciążają pamięci RAM w systemie Intel...
Reakcje:pancerna i mszilard

mi7chy

24 paź 2014
  • 1 lut 2021
Krevnik powiedział: Cała różnica między pamięcią zunifikowaną a pamięcią współdzieloną polega na tym, że nie ma partycjonowania. GPU i CPU mają dostęp do tego samego bloku pamięci. W porównaniu z Intelem zapewnia dwie konkretne korzyści:

1. Bez konieczności wstępnego przydzielania pamięci RAM do wykorzystania jako pamięć wideo, nie musisz radzić sobie z określonymi ograniczeniami pamięci wideo (wspomniane wcześniej 1,5 GB) i możesz łatwiej zrównoważyć zapotrzebowanie na CPU i GPU.
2. Brak konieczności kopiowania buforów oznacza pewne wymierne oszczędności pamięci RAM, mniejszą presję na przepustowość pamięci i niewielkie zwiększenie opóźnień.

Intel mówi inaczej z dynamiczną alokacją i zerowym buforem kopiowania. Moja lista ignorowanych BS rośnie.

https://www.intel.com/content/www/us/en/support/articles/000020962/graphics.html

https://software.intel.com/content/...uffer-copies-on-intel-processor-graphics.html Ostatnia edycja: 1 lutego 2021
Reakcje:AlumaMac, leman i AAPLGeek

thedocbwarren

10 listopada 2017 r.
San Francisco, Kalifornia
  • 1 lut 2021
Pomyśl, że to może pomóc: https://developer.apple.com/videos/play/wwdc2020/10632/

To wyjaśnia metodę renderowania powszechną w urządzeniach mobilnych, konsolach i procesorach graficznych o niskim poborze mocy. Dlatego potrzebujesz mniej pamięci niż dGPU. Renderowanie kafelków to sposób na radzenie sobie z 3D w mniejszych kafelkach i zmiany w skanowaniu itp. Robiono to od lat na konsolach, a także na nowszych tabletach (iPad).

Biorąc to pod uwagę, nie jest cięte i suche, ile pamięci używasz do tekstur i zaczerwienień. To różni się od tego, jak dGPU współpracują z buforami ramki.

Theluggage powiedział: Chyba że ktoś zgłosi się z odczytami ciśnienia pamięci z 16 GB maszyny M1 działającej z czymś zbliżonym do zamierzonego obciążenia — zgadnij. „Produkcja muzyki” to kawałek struny na początek (wykorzystanie pamięci RAM zależy całkowicie od tego, jakiego rodzaju wirtualnych instrumentów i wtyczek używasz). Niektóre aplikacje muzyczne mają dość rozbudowane interfejsy użytkownika, a uruchomienie kilku wyświetlaczy o wysokiej rozdzielczości będzie wymagało więcej pamięci RAM przydzielonej do wideo – zwłaszcza jeśli używasz trybów skalowanych, w których wszystko jest renderowane do wewnętrznego bufora, a następnie próbkowane w dół.

Szanse są takie, że M1 nie tylko wykona twoją pracę, ale wykona ją szybciej, ponieważ jest ogólnie bardziej wydajny, a to, co tracisz na rondach, zyskujesz na huśtawkach - a było wiele demonstracji na Youtube pokazujących, jak działa mnóstwo utworów i instrumentów Logic Pro.

Jednak bezpiecznym założeniem jest to, że jeśli Twój przepływ pracy faktycznie potrzebował więcej niż 16 GB na Intelu, to przynajmniej będzie korzyść z ponad 16 GB w Apple Silicon i najlepiej byłoby poczekać na pojawienie się wyższej klasy systemów Apple Silicon. Nawet jeśli M1 może obecnie przewyższają high-endowego iMaca Intela lub 16-calowego MBP, za sześć miesięcy zostanie mu skopany piasek w twarz – ta dziwna przerwa, w której komputery Mac klasy podstawowej najwyraźniej przewyższają droższe, nie potrwają długie - Apple nie może sobie na to pozwolić lub trafi do sprzedaży komputerów Mac z wyższej półki.

To powiedziawszy, musisz mieć pewność, że naprawdę w pierwszej kolejności potrzebujesz całej pamięci RAM na komputerze Intel Mac (spójrz na ciśnienie pamięci).

Jeśli chodzi o pamięć wideo, M1 jest prawie na pewno lepszy niż MacBook lub Mini ze zintegrowaną grafiką Intela. Vs. iMac, który tylko ma osobny procesor graficzny z 8 GB+ pamięci VRAM, trudno powiedzieć.

(Musisz też dokładnie sprawdzić, czy wszystkie potrzebne wtyczki, sterowniki itp. są już kompatybilne z Big Sur, nie mówiąc już o M1...)



Mówienie komuś, aby skutecznie „przeszedł na Google”, nie jest szczególnie pomocne, gdy w Internecie płyną fałszywe informacje i bezpodstawne spekulacje. Wszystko co widziałem od Apple była bardzo niejasna, bardziej marketingowa niż techniczna i sprowadzała się do „Ujednolicona pamięć jest szybsza, ponieważ dane nie muszą być kopiowane między urządzeniami”, co nie mówi nic o tym, jak przydzielana jest pamięć RAM. Wszystko, co otrzymujesz dzięki wyszukiwarce Google, to wiele witryn technicznych spekulujących na tych samych ograniczonych danych Apple. Możliwość, że równoważna pamięć VRAM zostanie przydzielona „na żądanie”, jest bardzo prawdopodobną spekulacją – ale chyba że ktoś może wskazać na Dokument Apple że szczegóły to, to jest spekulacja.

Rzeczywistość wydaje się być tą zunifikowaną pamięcią jest bardziej wydajny - ale Jak bardziej wydajny jest trudny do przetestowania i trudny do odizolowania od innych przyrostów wydajności M1 (… co może wyglądać znacznie mniej imponująco, gdy pojawią się komputery Mac z wyższej półki Apple Silicon).

Wiele materiałów z YouTube wydaje się pochodzić od ludzi, którzy nie rozumieją różnicy między „wykorzystaną pamięcią” a „ciśnieniem pamięci” lub „zamień używaną” i zamień wskaźnik - lub szukasz przyspieszenia związanego z pamięcią RAM w przepływach pracy, które nie obciążają pamięci RAM w systemie Intel...

dmccloud

7 września 2009 r.
Anchorage, AK
  • 1 lut 2021
leman powiedział: Jak to ma wspierać twierdzenie, które wysuwasz? Pytam o to – czy macie jakieś faktyczne dowody lub odniesienie do źródła przedstawiającego takie faktyczne dowody, że alokacja pamięci GPU działa inaczej na procesorach graficznych Intela i Apple? Oba używają zunifikowanej architektury pamięci z pamięcią podręczną ostatniego poziomu współdzieloną między procesorem i GPU. M1 zdecydowanie rezerwuje trochę pamięci do wykorzystania przez GPU, choć nie jestem pewien ile.

x86 NIE używa zunifikowanej pamięci dla systemowej pamięci RAM. UMA odnosi się do konfiguracji pamięci RAM w systemie, a nie pamięci podręcznej procesora. W przypadku platformy x86 system dzieli pamięć RAM na sekcję CPU i iGPU. W przypadku iGPU system zwykle przydziela około 2 GB na operacje GPU, co oznacza, że ​​dla procesora dostępne jest tylko 6 GB. W przypadku operacji, w których dane muszą być manipulowane zarówno przez procesor, jak i iGPU, są one kopiowane dwukrotnie przez magistralę systemową do pamięci RAM (raz na partycję), a następnie system musi uzgodnić dwa zestawy danych raz przekazanych z powrotem z pamięci RAM, co dodaje dodatkowy czas przetwarzania. Dzięki konfiguracji UMA używanej przez M1 zarówno procesor, jak i iGPU mogą jednocześnie uzyskać dostęp do pełnej pamięci RAM systemu (tj. nie ma partycjonowania pamięci RAM między procesorem i GPU). Oznacza to, że dane są kopiowane do pamięci RAM tylko raz, a ponieważ wszystkie operacje mogą odbywać się jednocześnie, nie ma narzutu związanego z uzgadnianiem dwóch wersji tych samych danych, które zostały raz przekazane z powrotem do procesora z pamięci RAM.
Reakcje:opancerzony i chabig

dmccloud

7 września 2009 r.
Anchorage, AK
  • 1 lut 2021
leman powiedział: Dokumentacja Intela się z tobą nie zgadza.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
O ile uzupełniam, Intel używa zunifikowanej pamięci przynajmniej od Sandy Bridge, a może wcześniej. Mogą istnieć pewne ograniczenia, ale nie na 100%.

Trzeba sobie uświadomić, że użycie przez firmę Intel terminu „UMA” jest mylące. Na potrzeby Intela właśnie zmienili nazwę Intel HD na UMA, ale nie wprowadzili żadnych zmian w podstawowej architekturze. Z drugiej strony podejście Apple jest zasadniczo tym, co AMD próbowało zrobić od lat, rozwijając technologię Infinity Fabric dla procesorów z serii Ryzen. Oto stosunkowo uproszczone wyjaśnienie, dlaczego podejście Apple nie jest takie samo jak Intela:

Pamięć procesora M1 to pojedyncza pula dostępna dla dowolnej części procesora. Jeśli system potrzebuje więcej pamięci na grafikę, może to przydzielić. Jeśli potrzebuje więcej pamięci dla silnika neuronowego, podobnie. Co więcej, ponieważ wszystkie aspekty procesora mogą uzyskać dostęp do całej pamięci systemowej, nie ma spadku wydajności, gdy rdzenie graficzne muszą uzyskać dostęp do czegoś, do czego wcześniej miał dostęp rdzeń procesora. W innych systemach dane muszą być kopiowane z jednej części pamięci do drugiej, ale w M1 są one po prostu natychmiast dostępne.

Nawet wzmianka o „alokacji” powyżej jest myląca i stanowi artefakt platformy x86. Ponieważ UMA firmy Apple nie dzieli pamięci RAM między GPU i CPU, nie ma faktycznego przydziału pamięci RAM między procesorem a GPU.

W przypadku komputerów Mac M1 pamięć nie jest już taka, jak kiedyś

Apple zmienił sposób, w jaki pamięć RAM jest używana w komputerze. I czas zmienić nasze myślenie.
Reakcje:pancerna, chabig i mds1256

Krevnik

8 września 2003 r.
  • 1 lut 2021
dmccloud powiedział: Musisz zdać sobie sprawę, że użycie przez Intel terminu „UMA” jest mylące. Na potrzeby Intela właśnie zmienili nazwę Intel HD na UMA, ale nie wprowadzili żadnych zmian w podstawowej architekturze.

Będę szczery, leman i mi7chy (pomimo zuchwałego nastawienia) wskazują na dobre źródła, że ​​Intel obsługuje przynajmniej zero kopii i dynamiczne określanie rozmiaru partycji.

Nawet jeśli nie jest to prawdziwe UMA, jak twierdzisz, wygląda na to, że z dokumentów, które przeczytałem do tej pory, jest przynajmniej w stanie dedykować strony pamięci do użycia dla kopii zerowej, co, jak sądzę, ma kilka interesujących sztuczek, aby zrobić ta sama strona RAM dostępna po obu stronach.

Pytanie, na które mam nadzieję, że dokumentacja odpowie, gdy uzyskam więcej czasu, dotyczy tego, w jaki sposób te strony są obsługiwane bardziej szczegółowo i jaki rodzaj integracji musi wykonać system operacyjny, aby jak najlepiej to wykorzystać. Ale nawet z tą odpowiedzią, jeśli interfejsy API systemu operacyjnego muszą sygnalizować GPU, jak zarządzać stronami, to ile optymalizacji dokonał tam Apple?

leman powiedział: Dokumentacja Intela się z tobą nie zgadza.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
O ile uzupełniam, Intel używa zunifikowanej pamięci przynajmniej od Sandy Bridge, a może wcześniej. Mogą istnieć pewne ograniczenia, ale nie na 100%.

Cóż, moje zrozumienie architektury procesorów graficznych Intela okazało się nieaktualne. Rzeczywiście, w tym przypadku nie powinno być dużych różnic.

Zrozumiałem, że nadal trwało pewne stałe partycjonowanie, ale wygląda na to, że Google zbiera stare artykuły na ten temat, co sprowadziło mnie na złą ścieżkę.

thedocbwarren powiedział: Pomyśl, że to może pomóc: https://developer.apple.com/videos/play/wwdc2020/10632/

To wyjaśnia metodę renderowania powszechną w urządzeniach mobilnych, konsolach i procesorach graficznych o niskim poborze mocy. Dlatego potrzebujesz mniej pamięci niż dGPU. Renderowanie kafelków to sposób na radzenie sobie z 3D w mniejszych kafelkach i zmiany w skanowaniu itp. Robiono to od lat na konsolach, a także na nowszych tabletach (iPad).

Biorąc to pod uwagę, nie jest cięte i suche, ile pamięci używasz do tekstur i zaczerwienień. To różni się od tego, jak dGPU współpracują z buforami ramki.

Po ponownym przejrzeniu filmu (minęło kilka miesięcy, odkąd go ostatnio oglądałem) rozumiem, że niekoniecznie wpływa to na ilość potrzebnej pamięci wideo, ale raczej na presję wywieraną na przepustowość pamięci.

Nadal potrzebuję X MB na teksturę o danym rozmiarze i X MB na bufor ramki w obu projektach. Jednak TBDR zmniejsza częstotliwość, z jaką musisz sięgać do (V)RAM, szczególnie w sytuacjach, w których musisz wykonać wiele przejść. *Może* zmniejszyć nieco bufory pośrednie, ale zakłada to, że bufory pośrednie są zauważalnym wkładem w porównaniu z innymi używanymi buforami. Zrozumiałem, że sam bufor tylny był używany jako bufor pośredni, więc jestem trochę sceptyczny, że można tam uzyskać duże korzyści. Rysowanie do tekstury wydaje się być obecnie powszechne, więc może być ich więcej, niż się spodziewam, zakładając, że wszystkie te scenariusze można wykonać na poziomie kafelków, a nie tekstury. Ostatnia edycja: 1 lutego 2021

dmccloud

7 września 2009 r.
Anchorage, AK
  • 1 lut 2021
Intel nadal dzieli procesor i GPU na partycje, więc musisz kopiować dane ze strony CPU na stronę GPU i vice versa (sekcja pogrubiona to podejście Apple, sekcja pisana kursywą to Intel):

Przejdźmy do ostatniego punktu, pamięci na chipie. W przypadku M1 jest to również część SoC. Pamięć w M1 jest opisywana jako „ujednolicona architektura pamięci” (UMA), która umożliwia procesorowi, GPU i innym rdzeniom wymianę informacji między sobą oraz z ujednoliconą pamięcią. CPU i GPU mogą jednocześnie uzyskiwać dostęp do pamięci, zamiast kopiować dane między jednym obszarem a drugim . Erik kontynuuje…

Przez długi czas w budżetowych systemach komputerowych CPU i GPU były zintegrowane z tym samym chipem (ta sama matryca krzemowa). W przeszłości powiedzenie „grafika zintegrowana” było zasadniczo tym samym, co powiedzenie „wolna grafika”. Były one powolne z kilku powodów:
Oddzielne obszary tej pamięci zostały zarezerwowane dla CPU i GPU. Jeśli procesor miał porcję danych, których chciał użyć GPU, nie można powiedzieć, że mam tutaj część mojej pamięci. Nie, procesor musiał jawnie skopiować cały fragment danych w obszarze pamięci kontrolowanym przez GPU.


Część dotycząca „budżetowych systemów komputerowych” jest tym, czego Intel do dziś używa do zintegrowanej grafiki. To się nie zmieniło, niezależnie od tego, jak Intel nazywa ich architekturę.


Dlaczego chip Apple M1 jest tak szybki – wyjaśnia programista | Ekspert ds. Produkcji

Być może zastanawiałeś się, dlaczego chip Apple M1 jest tak szybki? W tym artykule dowiadujemy się od programisty, co sprawia, że ​​nawet te podstawowe komputery Mac są tak szybkie. www.pro-tools-expert.com
Johnny Srouji odniósł się do tego bezpośrednio podczas WWDC:

'dostęp do tych samych danych bez kopiowania ich między wieloma pulami pamięci'

Apple M1: bliższe spojrzenie na chip w najnowszych komputerach Mac

Na imprezie Apple nazwanej „One More Thing” firma dała widzom wirtualną wycieczkę po chipie M1 i jego 16 miliardach tranzystorów. www.techrepublic.com
Reakcje:chabig i thedocbwarren

thedocbwarren

10 listopada 2017 r.
San Francisco, Kalifornia
  • 1 lut 2021
Na pewno nieaktualny. Jestem jeszcze bardziej przerażony faktem, że będą teraz sprzedawać (producentom OEM) dyskretne wersje Iris Xe. Coraz bardziej rozchodzi się poza architekturę. Taki bałagan.
Krevnik powiedział: Będę szczery, leman i mi7chy (pomimo zuchwałego nastawienia) wskazują na dobre źródła, że ​​Intel obsługuje przynajmniej zero kopii i dynamiczne określanie rozmiaru partycji.

Nawet jeśli nie jest to prawdziwe UMA, jak twierdzisz, wygląda na to, że z dokumentów, które przeczytałem do tej pory, jest przynajmniej w stanie dedykować strony pamięci do użycia dla kopii zerowej, co, jak sądzę, ma kilka interesujących sztuczek, aby zrobić ta sama strona RAM dostępna po obu stronach.

Pytanie, na które mam nadzieję, że dokumentacja odpowie, gdy uzyskam więcej czasu, dotyczy tego, w jaki sposób te strony są obsługiwane bardziej szczegółowo i jaki rodzaj integracji musi wykonać system operacyjny, aby jak najlepiej to wykorzystać. Ale nawet z tą odpowiedzią, jeśli interfejsy API systemu operacyjnego muszą sygnalizować GPU, jak zarządzać stronami, to ile optymalizacji dokonał tam Apple?



Cóż, moje zrozumienie architektury procesorów graficznych Intela okazało się nieaktualne. Rzeczywiście, w tym przypadku nie powinno być dużych różnic.

Zrozumiałem, że nadal trwało pewne stałe partycjonowanie, ale wygląda na to, że Google zbiera stare artykuły na ten temat, co sprowadziło mnie na złą ścieżkę.



Po ponownym przejrzeniu filmu (minęło kilka miesięcy, odkąd go ostatnio oglądałem) rozumiem, że niekoniecznie wpływa to na ilość potrzebnej pamięci wideo, ale raczej na presję wywieraną na przepustowość pamięci.

Nadal potrzebuję X MB na teksturę o danym rozmiarze i X MB na bufor ramki w obu projektach. Jednak TBDR zmniejsza częstotliwość, z jaką musisz sięgać do (V)RAM, szczególnie w sytuacjach, w których musisz wykonać wiele przejść. *Może* zmniejszyć nieco bufory pośrednie, ale zakłada to, że bufory pośrednie są zauważalnym wkładem w porównaniu z innymi używanymi buforami. Zrozumiałem, że sam bufor tylny był używany jako bufor pośredni, więc jestem nieco sceptyczny, czy można tam osiągnąć duże korzyści. Rysowanie do tekstury wydaje się być obecnie powszechne, więc może być ich więcej, niż się spodziewam, zakładając, że wszystkie te scenariusze można wykonać na poziomie kafelków, a nie tekstury.

dmccloud

7 września 2009 r.
Anchorage, AK
  • 1 lut 2021
thedocbwarren powiedział: Na pewno nieaktualne. Jestem jeszcze bardziej przerażony faktem, że będą teraz sprzedawać (producentom OEM) dyskretne wersje Iris Xe. Coraz bardziej rozchodzi się poza architekturę. Taki bałagan.


Iris Xe to nic innego jak przemianowany na Intel UHD iGPU (który sam został przemianowany z Intel HD). To tak, jakby próbowali zaprezentować Chevelle jako zupełnie nowy samochód, po prostu przemalowując karoserię...

thedocbwarren

10 listopada 2017 r.
San Francisco, Kalifornia
  • 1 lut 2021
dmccloud powiedział: Iris Xe to nic innego jak przemianowany na Intel UHD iGPU (który sam został przemianowany z Intel HD). To tak, jakby próbowali zaprezentować Chevelle jako zupełnie nowy samochód, po prostu przemalowując karoserię...
Tak to prawda, że ​​nie mogę uwierzyć, że robią z nich nawet dyskretne karty dla 11. generacji.

robco74

22 lis 2020
  • 1 lut 2021
Jeśli tworzysz muzykę, pamięć RAM powinna znajdować się niżej na liście problemów, gdy rozważasz nowe komputery Mac M1. Big Sur wprowadził duże zmiany w sterownikach. Skontaktuj się najpierw ze wszystkimi producentami sprzętu, aby upewnić się, że obsługują Big Sur i Apple Silicon. Jeszcze nie wszyscy.
Reakcje:duervo Q

kwarkysg

12 paź 2019
  • 1 lut 2021
leman powiedział: Dokumentacja Intela się z tobą nie zgadza.

https://software.intel.com/sites/de...tel-Processor-Graphics-Gen11_R1new.pdf#page19
Zdaje się opisywać tylko iGPU Gen 11? Czy dotyczy to również iGPU wcześniejszych generacji?