Kwestie techniczne
#91 Napisany 03 października 2013 - 08:35
#92 Napisany 03 października 2013 - 08:43
dokładnie. jeżeli dobrze to rozegrają, to de facto sami zdeterminują standard multimedialnego linuksa na najbliższe kilka dekad, coś z czym tamta społeczność ma problem od z kolei ze dwóch dekad@torq: Raczej coś istniejącego. Mnie najbardziej interesuje, czy pójdą w iksy, czy w Waylanda (albo Mira ). Bo to może sporo zmienić w środowisku linuksowym.
#93 Napisany 03 października 2013 - 11:37
#94 Napisany 03 października 2013 - 16:33
ten SteamOs to co to ma byc? nowa dystrybucja linuksa czy system bazujący na linuksie? i jak to sie bedzie mialo do steama na linuksa?
#95 Napisany 03 października 2013 - 17:28
#96 Napisany 07 października 2013 - 07:05
#97 Napisany 07 października 2013 - 10:55
Tak oszczędza energię, że pół pudła od kąsoli zajmuje wiatrak który musi to wszystko chłodzić.
#98 Napisany 07 października 2013 - 13:39
MS obrał bekową taktykę na tlumaczenie mniejszej mocy swojej konsoli. na kazdym kroku probuja wbijac jakies małe szpileczki.
#99 Napisany 07 października 2013 - 17:03
http://www.vgleaks.c...-or-unbalanced/
Jeśli screen nie jest fejkiem, a wątpię, to wychodzi, że sprzęty są zajebiście podobne mocą, ergo Carmac miał rację. Dziękuję.
#100 Napisany 07 października 2013 - 18:05
Ale co to zmienia? Przecież te CU nie wyparowują
#101 Napisany 07 października 2013 - 18:26
Zmienia tyle, że ich wykorzystywanie do renderingu daje minimalne korzyści => wydajność graficzna jest determinowana przez inne czynniki. W efekcie okazuje się, że pod względem jakości oferowanej grafiki otrzymujemy dwa bardzo podobne systemy, a główną różnicą między nimi jest pamięć. Całkowicie potwierdza to słowa Penello, który mówił o znacznym przeszacowaniu różnicy w mediach. Oczywiście, PS4 może wykorzystać te rdzenie np. do osiągnięcia lepszej fizyki, ale w tytułach multiplatformowych jest to wątpliwe.
Podsumowując - zakładając, że ESRAM faktycznie rozwiązuje problem z przepustowością pamięci, gry będą wyglądać podobnie na obu sprzętach. To z kolei obala argument o lepszych multiplatformach na PS4, co zachęca do wyboru X1 na główny sprzęt ze względu na z dużym prawdopodobieństwem lepszą usługę sieciową (a obie są już płatne) i bajery w rodzaju Kinecta czy SmartGlassa.
#102 Napisany 07 października 2013 - 18:27
Tyle że Xbone ma 12 CU i 10% mocy zarezerwowane dla OSa/Kinecta, więc różnica nadal jest spora.
#103 Napisany 07 października 2013 - 18:37
Zmienia tyle, że ich wykorzystywanie do renderingu daje minimalne korzyści => wydajność graficzna jest determinowana przez inne czynniki. W efekcie okazuje się, że pod względem jakości oferowanej grafiki otrzymujemy dwa bardzo podobne systemy, a główną różnicą między nimi jest pamięć. Całkowicie potwierdza to słowa Penello, który mówił o znacznym przeszacowaniu różnicy w mediach. Oczywiście, PS4 może wykorzystać te rdzenie np. do osiągnięcia lepszej fizyki, ale w tytułach multiplatformowych jest to wątpliwe.
Podsumowując - zakładając, że ESRAM faktycznie rozwiązuje problem z przepustowością pamięci, gry będą wyglądać podobnie na obu sprzętach. To z kolei obala argument o lepszych multiplatformach na PS4, co zachęca do wyboru X1 na główny sprzęt ze względu na z dużym prawdopodobieństwem lepszą usługę sieciową (a obie są już płatne) i bajery w rodzaju Kinecta czy SmartGlassa.
GPU w PS4 ma 14 normalnych ALU i 4 rozszerzone o ekstra moduły dające boosta do GPGPU (a znikomego dla grafiki), ale jak ktoś chce to może wszystkie 18 wykorzystać do grafiki. GPU w PS4 jest o połowę szybsze, nie ma sensu szukać jakiś teorii spiskowych.
Tak oszczędza energię, że pół pudła od kąsoli zajmuje wiatrak który musi to wszystko chłodzić.
To nie ma żadnego związku. Chcesz mieć cichy wentylator, to musi być duży.
Ten post był edytowany przez xell dnia: 07 października 2013 - 18:38
#104 Napisany 07 października 2013 - 18:53
xell => Spójrz w slajd (rzekomo oficjalne info dla dewów od Sony). Ilość CU to nie jest jedyna rzecz, która wpływa na przetwarzanie. Najwyraźniej bottlenecki są gdzie indziej i sam Cerny przyznał to w wywiadzie, mówiąc, że gdyby nie GPGPU prawdopodobnie włożyliby mniej jednostek cieniujących.
Dante =>
14/18 * 1.86 = 1.45
9/10 * 1.31 = 1.18
PS4 może dostać jeszcze mały bonus z dodatkowych 4CU, X1 z optymalizacji systemu. Wychodzi, że X1 to jakieś 80% PS4.
Dodajmy do tego wyższe taktowanie procka i karty, co też może swoje dać (skraca czas wykonania liniowego taska), mniejszy narzut związany z rozdzielaniem i różnica może się zmniejszyć. Duże znaczenie będzie miała też pewnie jakość API.
Tyle, że to trochę gdybanie - nie wiemy na jakie problemy naprawdę natrafiają deweloperzy, nie wiemy jak wygląda optymalizacja narzędzi, nie mamy żadnej informacji o narzucie systemu w PS4 (chyba, że coś przeoczyłem), oprócz tego, że zajmuje 3.5 GB RAM, ale może spać do 2.5.
Wychodzi, że sprzęty są bardziej zbliżone, niż się wydawało co poniektórym.
#105 Napisany 08 października 2013 - 07:49
Dlaczego określili to jako "minor boost for rendering"? Jeśli +28% to jest "minor boost", to w takim razie różnica między PS4 a Xbone też jest "minor". Gdybym miał zgadywać, to 4 jednostki wykonawcze mają nieco inną konfigurację od pozostałych. Muszą - w przeciwnym wypadku nie byłoby w ogóle sensu wyszczególniać ich na slajdach. Zgaduję, że mają inny rozmiar banku rejestrów i lepsze wsparcie dla atomowych operacji na pamięci kosztem spekulacyjnego wykonywania kodu i jednostki do obliczeń obniżonej precyzji (i być może całkowitych).GPU w PS4 ma 14 normalnych ALU i 4 rozszerzone o ekstra moduły dające boosta do GPGPU (a znikomego dla grafiki), ale jak ktoś chce to może wszystkie 18 wykorzystać do grafiki. GPU w PS4 jest o połowę szybsze, nie ma sensu szukać jakiś teorii spiskowych.
Zakładając oczywiście, że slajd jest prawdziwy.
Ten post był edytowany przez Ryan dnia: 08 października 2013 - 07:50
#106 Napisany 09 października 2013 - 08:27
Dlaczego określili to jako "minor boost for rendering"? Jeśli +28% to jest "minor boost", to w takim razie różnica między PS4 a Xbone też jest "minor". Gdybym miał zgadywać, to 4 jednostki wykonawcze mają nieco inną konfigurację od pozostałych. Muszą - w przeciwnym wypadku nie byłoby w ogóle sensu wyszczególniać ich na slajdach. Zgaduję, że mają inny rozmiar banku rejestrów i lepsze wsparcie dla atomowych operacji na pamięci kosztem spekulacyjnego wykonywania kodu i jednostki do obliczeń obniżonej precyzji (i być może całkowitych).
Zakładając oczywiście, że slajd jest prawdziwy.
Nie wiem, jak to dokładnie wygląda, ale zakładam, że te cztery ALU to nie strata krzemu i będzie coś robić, nawet jeśli nie będą to rzeczy czysto graficzne. Ja bym się w sumie cieszył, jeśli struktura sprzętu będzie zachęcać twórców giereczek do implementowania rzeczy w stylu ficzerów PhysX w Mirror's Edge lub Batman Arkham (na GeForce'ach na PC) albo TressFX w Tomb Raider.
#107 Napisany 09 października 2013 - 09:21
#108 Napisany 09 października 2013 - 12:57
Owszem, ale czy nie było to winą architektury Cella? Tzn. osiągnięcie odpowiedniej wydajności było upierdliwe i uciążliwe bez dokładania dodatkowych systemów (np. fizyki) w stosunku do wersji 360? Implementacja tego typu rzeczy powinna być łatwiejsza na PS4, pewnie Havok, PhysX i inni twórcy middleware'u będą mieli gotowe rozwiązania.
#109 Napisany 09 października 2013 - 13:03
#110 Napisany 09 października 2013 - 22:45
Ktoś tu programuje grafikę(3d, realtime)? Bo dużo dyskutujecie o alternatywnych zastosowaniach dla tych CU i przeróbkach na poziomie architektury, a póki co wiemy tyle, że PS4 ma więcej schedulerów do GPGPU i to by było tyle. Wiemy też, że w wywiadzie dla DF architekci X1 powiedzieli, że dodanie dwóch CU dawało im mniejszy przyrost wydajności niż ~7% upclock zegarów, a przeliczając to na czystych flopsach, wzrost z tych CU powinien być rzędu ~17 %. Oczywiście PS4 ma więcej ROP, ale i tak dla laika wygląda na to, że bariera wydajności leży gdzie indziej.
I nie byłbym tak optymystyczny, jeśli chodzi o fizykę - nie ma specjalnie sensu jej implementować, jeśli nie przekłada się jakoś na gameplay. A wtedy trzeba ją wrzucić na wszystkie platformy. Myślę, że skorzystają z tego co najwyżej exclusivy na PS4.
#111 Napisany 10 października 2013 - 06:37
#112 Napisany 10 października 2013 - 11:36
A gdzie ja napisałem, że CU to scheduler? Piszesz o jednostkach wykonawczych o innej konfiguracji w tych 4 CU, a ja napisałem, że jedyną zmianą względem "bazy"(bazowej karty) są schedulery do obliczeń - konkretniej PS4 ma mieć 8 jednostek ACE. Jeśli masz źródła, które mówią inaczej, zacytuj.
Aha, wiem też, co to jest ROP, wiem również, że nie bez powodu do mocnych kart graficznych wkłada się ich więcej.
Dalej - gdyby sprzęt się skalował liniowo, to nie byłoby mowy o minor boostach. Może jest to kwestia procesora, może pamięci - nie wiem. Wychodzi jednak, że te sprzęty niespecjalnie potrafią wykorzystać więcej jednostek.
#113 Napisany 10 października 2013 - 13:31
#114 Napisany 10 października 2013 - 14:37
I nie byłbym tak optymystyczny, jeśli chodzi o fizykę - nie ma specjalnie sensu jej implementować, jeśli nie przekłada się jakoś na gameplay. A wtedy trzeba ją wrzucić na wszystkie platformy. Myślę, że skorzystają z tego co najwyżej exclusivy na PS4.
Właśnie takie rzeczy najlepiej jest zaimplementować. Grasz się tak samo niezależnie od platformy, ale na jednej masz realistycznie poruszające się ciuchy, włosy i sierść, różne odłamki, cząsteczki i zawiesiny przemieszczające się w płynach i inne tego typu kosmetyczne sprawy, które nie mają wpływu na gejmplej, ale można stosunkowo łatwo dodać do bazowej gry, a zwiększają jej werisimilitudę*.
*tak, bezczelnie wrzuciłem makaranizma, bo nie chce mi się odpowiedniego polskiego wyrazu szukać
#115 Napisany 10 października 2013 - 14:55
- An additional dedicated 20 GB/s bus that bypasses L1 and L2 GPU cache for direct system memory access, reducing synchronisation challenges when performing fine-grain GPGPU compute tasks.
- L2 cache support for simultaneous graphical and asynchronous compute tasks through the addition of a 'volatile' bit tag, providing control over cache invalidation, reducing the impact of simultaneous graphical and general purpose compute operations.
- An upgrade from 2 to 64 sources for compute commands, improving compute parallelism and execution priority control. This enables finer-grain control over load-balancing of compute commands including superior game-engine integration.[8]
Z wiki. Jak widać, wszystko o czym do tej pory wspomnieli, ma wspierać przede wszystkim GPGPU (wszystko, co jest customowe).
Tu wywiad z Cernym: http://www.gamasutra...rk_.php?print=1
Ryan, nigdy nie kwestionowałem Twojej wiedzy, nawet się do niej nie porównuję. Byłoby jednak miło, gdybyś od czasu do czasu wyjął ten kij, który nosisz w dupie i rozmawiał jak człowiek.
Właśnie takie rzeczy najlepiej jest zaimplementować. Grasz się tak samo niezależnie od platformy, ale na jednej masz realistycznie poruszające się ciuchy, włosy i sierść, różne odłamki, cząsteczki i zawiesiny przemieszczające się w płynach i inne tego typu kosmetyczne sprawy, które nie mają wpływu na gejmplej, ale można stosunkowo łatwo dodać do bazowej gry, a zwiększają jej werisimilitudę*.
Najlepiej z perspektywy gracza. Niekoniecznie z perspektywy dewelopera. Te wszystkie smaczki są fajne jak oglądasz screeny, a nie jak grasz. Oczywiście, są to przyjemne dodatki, ale nie sądzę, żeby miały wysoki priorytet. Wszystko, co musisz zaimplementować, a co przyniesie Ci korzyść tylko na jednej platformie, to obciążenie. Pisało o tym kilku dewów.
#116 Napisany 10 października 2013 - 19:06
1) zaczynasz od "czy ktokolwiek w ogóle tutaj programuje bla bla bla";
2) każesz podawać źródła, choć sam takowych nie podajesz;
3) interpretujesz "upgrade from 2 to 64 sources for compute commands" jako "więcej schedulerów".
WTF?
#117 Napisany 10 października 2013 - 19:57
Najlepiej z perspektywy gracza. Niekoniecznie z perspektywy dewelopera. Te wszystkie smaczki są fajne jak oglądasz screeny, a nie jak grasz. Oczywiście, są to przyjemne dodatki, ale nie sądzę, żeby miały wysoki priorytet. Wszystko, co musisz zaimplementować, a co przyniesie Ci korzyść tylko na jednej platformie, to obciążenie. Pisało o tym kilku dewów.
Nie doceniasz tego, jak producentom sprzętu zależy na tym, żeby się wyróżnić na tle konkurencji - będziemy widzieć czasowe exclusive'y, exclusive'y na DLC i będziemy widzieć ficzery na wyłączność (tryby gejmpleju, opcje online, Kinect czy też opcje graficzne). Przez to, że te platformy są tak podobne, o wiele łatwiej też uwypuklić różnice. Jeśli przewagą PS4 nad Xbonem jest właśnie GPGPU, to Sony może np. się sprzymierzyć z Havokiem, żeby stworzyło coś specjalnego pod PS4, a następnie z konkretnymi developerami, żeby te API od Havoka implementowały. Coś takiego nie wydaje mi się niemożliwe, zobacz, co twórcy robią na PC, specjalnie dla posiadaczy kart nVidii:
Jeśli nVidia jest w stanie skusić twórców/wydawców do wykorzystania PhysX na taką skalę, to tym bardziej będzie w stanie Sony. Z drugiej strony, myślę, że sami deweloperzy/wydawcy będą podchodzić do tego cynicznie - nie zaimplementują ekstra rozszerzeń sami z siebie, jeśli Sony nie zaoferuje im wsparcia.
#118 Napisany 10 października 2013 - 21:20
Kurde, czepiasz się mojej wypowiedzi, kiedy:
1) zaczynasz od "czy ktokolwiek w ogóle tutaj programuje bla bla bla";
2) każesz podawać źródła, choć sam takowych nie podajesz;
3) interpretujesz "upgrade from 2 to 64 sources for compute commands" jako "więcej schedulerów".
WTF?
1) Ubodło Cię to? Czemu? To normalne pytanie, gdyby się ktoś taki znalazł mógłby dorzucić trochę praktycznych informacji. Teoretyzowanie nt. algorytmów i stopnia zrównoleglenia obliczeń to jedno, opinia kogoś kto poślęczał nad profilerami to drugie. Nie wiem z jakiej paki traktujesz to jako atak.
2) Znowu to samo. Z góry zakładasz, że mamy do czynienia z jakimś konfliktem i przerzucamy się argumentami. Ja się po sieci wielokrotnie spotkałem z opinią, że PS4 ma więcej jednostek ACE i na tym właściwie customizacja się kończy (poza dekoderami i resztą wymienioną w cytacie). Ty sugerujesz, że nastąpiły jakieś zmiany na poziomie CU w celu optymalizacji do obliczeń. Założyłem, że może masz inne informacje. A o źródła wystarczy poprosić, zamiast wszystko traktować jako początek flame. Na przyszłość postaram się je podłączać.
3) Nie, o schedulerach pisałem w kontekście jednostek ACE (o których pisze się w wielu miejscach, ale nie znalazłem na szybko nic oficjalnego, może to spekulacje), które mają być przyczyną wzrostu w liczbie źródeł. Jednostek, które mają zapewniać właśnie scheduling dla tych 64 kolejek instrukcji, podobno zrealizowany na poziomie hardware. W sieci często pada liczba 8 ACE, każdy z 8 kolejkami.
Tutaj przykładowe źródło: http://www.itproport...ged-apu-design/
Znacznie łatwiej by się rozmawiało, gdybyś nie traktował każdej wypowiedzi jako próby podważenia Twojego autorytetu, względnie próby wojenki. Mnie na przykład g**** obchodzi, który sprzęt okaże się mocniejszy, chciałbym za to zrozumieć jak są zaprojektowane i dlaczego tak (na podstawowym poziomie). Zarówno przytoczony przeze mnie slajd, jak i wypowiedzi kolesi od X1, wskazują na to, że ograniczenia w szeroko rozumianej "mocy graficznej" są ciut inne, niż wydawało by się większości miłośników numerków. Fajnie by było zrozumieć dlaczego.
xell:
Dokładnie tak jak piszesz. Dewowie muszą traktować tworzenie gier jak biznes, w związku z tym starają się zminimalizować koszty i zmaksymalizować zyski. Jasne, mogą zaimplementować w silniku moduły do tych dodatków i włączać je w zależności od potrzeb - ale ta praca musi im się w jakiś sposób opłacić.
Dochodzi jeszcze jeden problem: konkurencyjna platforma nie będzie patrzeć zbyt przychylnym okiem na dewa, który premiuje tę drugą. Po przemyśleniu widzę jednak możliwość, że MS będą słodzić Kinectem, a Sony fizyką. Pytanie tylko, jakie będą tego koszty i na ile widoczne będą efekty.
#119 Napisany 02 listopada 2013 - 16:50
http://www.techpower...ovember-11.html
11 Listopada odbędzie sie event AMD, na którym jednym z tematów przewodnich będzie "Inside PlayStation 4: Building the Best Place to Play". Może poznamy jakieś dokładne szczegóły CPU siedzącego w PS4?