DX12 دارای قابلیتهایی برای نسل آینده GPU ـها خواهد بود.[ پست اول تاپیک حتماً خوانده ]

  • Thread starter Thread starter DieDie
  • تاریخ آغاز تاریخ آغاز
این بازی از هیچ تکنولوژی خاصی مثل Tressfx استفاده نمیکنه
چون سازنده tomb raider قرار داد amd gaming evolvedرو امضا کرده بود و مورد حمایت ای ام دی بود { و همچنان هست } اجازه همکاری با انویدیا نداشت و وقتی بازی منتشر شد چون کد های Tressfx جدید بود انویدیا اونا رو نداشت و بعد از منتشر شدن بازی ای ام دی کد ها رو در اختیار انویدیا قرار داد تا اپتیمایز کنه ..... و نهایتا مشکل برطرف شد
الان خیلی از بازی ها از گیم ورکس استفاده میکنند و سازنده ها قرار داد nvidia The Way It's Meant to be Played رو امضا میکنند و ای ام دی کد ها رو نداره و به مشکل بر میخوره ... وحتی بعد ریلیز بازی هم نه انویدیا نه سازنده کد های مربوطه رو در اختیار ای ام دی قرار نمیده چون بندی در این مورد در قرار داد انویدیا هست .... جنگ نرمه :دی
ولی انویدیا حتما میتونه با این که درایور برای این بازی داده بود بیرون ...بازم عملکرد کارت هاش رو بهبود بده


Ashes Of Singularity قبل از DX12 بر اساس منتل ای ام دی توسعه داده میشد، به هر حال خیلی تابلوئه که مشکل انویدیا توی این تستها منعکس کننده واقعیت نیست خیلی دور از ذهنه که انویدیا توی DX12 که یک ای پی آی هست که با کمک خود انویدیا از چند سال قبل از رونمایی رسمیش توسعه داده شده از DX11 ضعیفتر عمل کنه.
 
Ashes Of Singularity قبل از DX12 بر اساس منتل ای ام دی توسعه داده میشد، به هر حال خیلی تابلوئه که مشکل انویدیا توی این تستها منعکس کننده واقعیت نیست خیلی دور از ذهنه که انویدیا توی DX12 که یک ای پی آی هست که با کمک خود انویدیا از چند سال قبل از رونمایی رسمیش توسعه داده شده از DX11 ضعیفتر عمل کنه.

هر سه شرکت ای ام دی و اینتل و انویدیا با مایکروسافت همکاری نزدیکی داشتن در ساختن DX12
نمیشه گفت نقش کدوم بیشتر بوده ولی اصل DX12 همون منتله
قبول دارم گفتم که بازی های بعدی انویدیا قدرتش رو نشون میده اینم به قول شما چون منتل ساپورت بوده این جوری برای ای ام دی اپتیمایز تر بوده ولی ای ام دی و مایکرو سر ایکس 1 هم شده همکاری بیشتری برای بهینه کردن DX12 برای GCN ای ام دی داشتن این جوری ایکس 1 هم خودی نشون میده
ولی سازنده بازی نظر انویدیا که میگه بازی باگ داره قبول نداره ... و بازی از چند ماه قبل برای تست در اختیار ای ام دی و انویدیا بوده
 
اینها همش بازی برای هر بیشتر سر کیسه کردن ملت هست . پول بیشتر این چیزی هست که شرکت ها فقط و فقط دنبالش هستن و در این مورد سرزنشی نیست و اصولا مشتری این وسط فقط بازیچه هست و بس همین قوطی های که به اسم نسل جدید وارد بازار شدن نمونه بارزش هست که به اسم نسل جدید وارد بازار شدن ولی هنوز تو 60 فریم پیکسل 1080 موندن این نشون میده فقط وفقط شرکت ها نه اینکه پیشرفت داشته باشن بلکه در جا و بعضا پسرفت هم داشتن . قبل از این نسلی که به اسم نسل جدید ازش یاد می شد اتفاق بیفته همه از هر چه بهتر شدن فیزیک در بازی ها صحبت می کردن ولی هنوز تو هیچ بازی این اتفاق نیفتاده.فقط مگر این virtual reality بیاد و تغییری ایجاد کنه که شاید شرکت ها هم تغییری در روند ساخت سخت افزارهای جدیدشون بدن.
 
به نظر vulkan api اینده بهتر هست چون کروس پلتفروم تر هست و هر سخت افزار و سیستم عاملی ساپورت میکنه شرکت که ازش استفاده مکنن کم نیستن مطمئن جلوتر بره بهتر میشه
بهینه سازی روش انجام دادن که فشار بر روی سخت افزار نیاره و مدیریت بر روی مقدار حافظه از امتیازاتش
 
هر سه شرکت ای ام دی و اینتل و انویدیا با مایکروسافت همکاری نزدیکی داشتن در ساختن DX12
نمیشه گفت نقش کدوم بیشتر بوده ولی اصل DX12 همون منتله

قبول دارم گفتم که بازی های بعدی انویدیا قدرتش رو نشون میده اینم به قول شما چون منتل ساپورت بوده این جوری برای ای ام دی اپتیمایز تر بوده ولی ای ام دی و مایکرو سر ایکس 1 هم شده همکاری بیشتری برای بهینه کردن DX12 برای GCN ای ام دی داشتن این جوری ایکس 1 هم خودی نشون میده
ولی سازنده بازی نظر انویدیا که میگه بازی باگ داره قبول نداره ... و بازی از چند ماه قبل برای تست در اختیار ای ام دی و انویدیا بوده

ساخت DX12 از سال 2010 با همکاری nVidia و مایکروسافت شروع شده اینو روز معرفی DX12 تو GDC 2014 اعلام کردن.

Our work with Microsoft on DirectX 12 began more than four years ago with discussions about reducing resource overhead. For the past year, NVIDIA has been working closely with the DirectX team to deliver a working design and implementation of DX12 at GDC.

Nvidia talks DirectX 12 support
 
ساخت DX12 از سال 2010 با همکاری nVidia و مایکروسافت شروع شده اینو روز معرفی DX12 تو GDC 2014 اعلام کردن.



Nvidia talks DirectX 12 support

کل اون شو رو دیده بودم .... مایکرو تاکید داشت با همکاری هر سه این شرکت DX12 رو ساختن
این خبر از طرف بلاگ انویدیا هست و تو این خبر انویدیا نمیاد بگه "جا داره به برو بکس ای ام دی و اینتل بگم که اون ها هم هستن تنها نیستیم مچکریم " :دی
ولی ممکنه استارت کار با انویدیا زده شده باشه .....
هر سه شرکت انویدیا و اینتل و ای ام دی همکاری نزدیک و زیادی با مایکرو داشتن در ساخت DX12 ... اقای انوش که الان مسئول بخش oculus vr هست گفته بود . . .و اگر اشتباه نکنم گفته بود ممنونم از ای ام دی که کدهاش {دقیق نمیدونم / یادم نیست منظورش چی بود } که کد هاش رو با مایکروسافت برای ساخت DX12 اشتراک گزاشت
 
AMD برای کنسول مایکروسافت که انقدر سر ساپورتش از DX12 مانور دادن GPU ساخته اونوقت مایکروسافت توی توسعه ی DX12 فقط میاد با انویدیا همکاری کنه؟!‍
Nvidia سرش تو ساخت GPU نسل بعد کنسولا بی کلاه موند فقط داره روی بازیهای PC و تکنولوژی هایی که بیشتر PC رو تحت تاثیر میده مانور تبلیغاتی میده. فعلا هم که معلوم شد همش درحد یه تبلیغ بود و Fury X رقیبش 980ti رو شکست داده.
 
کل اون شو رو دیده بودم .... مایکرو تاکید داشت با همکاری هر سه این شرکت DX12 رو ساختن
این خبر از طرف بلاگ انویدیا هست و تو این خبر انویدیا نمیاد بگه "جا داره به برو بکس ای ام دی و اینتل بگم که اون ها هم هستن تنها نیستیم مچکریم " :دی
ولی ممکنه استارت کار با انویدیا زده شده باشه .....
هر سه شرکت انویدیا و اینتل و ای ام دی همکاری نزدیک و زیادی با مایکرو داشتن در ساخت DX12 ... اقای انوش که الان مسئول بخش oculus vr هست گفته بود . . .و اگر اشتباه نکنم گفته بود ممنونم از ای ام دی که کدهاش {دقیق نمیدونم / یادم نیست منظورش چی بود } که کد هاش رو با مایکروسافت برای ساخت DX12 اشتراک گزاشت

فکر میکنم شما اشتباه به خاطرت میاد. کدهای Mantle در واقع برای Vulkan (که API نسل بعدی OpenGL هست) بکار گرفته شده و در واقع کدهای Vulkan به هیچ وجه با کدهای OpenGL سازگاری نداره و برای اینکه GPU شما بتونه از Vulkan پشتیبانی کنه به درایورهای جدید نیاز خواهید داشت. اما DX12 با اینکه همه/اکثر ویژگیهای مهم این دو API رو داره با ورژن های قبلی خودش هم سازگار هست و اینطور نیست که تماماً جدید باشه.

صرف نظر از اینکه مایکروسافت کارش در ارتباط با DX12 رو با کدوم یک از این شرکتها شروع کرده باشه باید به این نکته توجه داشت که DX12 در GDC 2014 معرفی شد (اگر اشتباه نکنم) و از اون زمان تا الان حدوداً 2 سال زمان داشته/داره تا بخواد از سایر شرکتها هم برای بهتر کردن API خودش استفاده کنه. اما نکته مهم این هست که زمانی که مایکروسافت برای اولین بار از DX12 پرده برداری کرد یک دموی آماده برای GPUهای Nvidia داشت و روی اون دموی Forza 5 با استفاده از DX12 رو نشون داد و بعد هم که یک دمو برای Intel تدارک دیدن و هر دوی این شرکتها از نظر درایور و ساپورت جلوتر از AMD بودن. حتی برای اولین بار در نمایش Dx11.2 هم مایکروسافت از GPUهای Nvidia استفاده کرد. پس عجیب نیست که Nvidia تونسته GPUـی با فیچر لول DX12_1 عرضه کنه و بیش از یکسال جلوتر از AMD باشه (در یسری قسمتها، مثلاً GPUهای AMD در کامپیوت بهتر از Nvidia عمل میکنن که همین یکی از نقاط قوت DX12 هم هست، هرچند جزو FLها نیومده).

اما شاید بشه گفت که از اونجایی که Ashes Of Singularity اولین بار با استفاده از منتل روی GPUهای AMD به نمایش دراومده پس انجین این بازی با GPUهای AMD سازگارتر هست.
 
اصلا دلیل اینکه چرا کسی باید حامی amd باشه برام روشن نیست اینکه گند زده به کنسول های نسل بعد کافی نیست؟ طراحی ابر ضعیفش برای 360 که فرت و فرت می سوخت کافی نبود طراحی فاجعه ی cpu هاش که حتی 8 تا هستش در حد 2 هسته ی intel نیست کافی نیست؟ مشککلات حرارتیش خرابی های خیلی زیادش کیفیت پایینش کافی نیست؟ معماری ضعیفش کافی نیست؟

amd بعد از 8 ماه یا شایدم بیشتر سری جدید کارت گرافیک عرضه کرده که از سری m nvidia هم ضعیف تر عمل کرده تا با 8 گیگ رم گرافکی هم به پای 4 گیگ nvidia نرسیده fury x هم هنر کرده با معماری جدید رم گرافیکی با خنک کننده ی ابی با کلی زحمت بازم به پای 980 ti نرسیده تنها در res های خیلی بالا بهش رسیده اونم نه به لطف معماریش بلکه به لطف hbm memory که نسخه ی 2 قراره برای معماری پاسکال nvidia به کار گرفته بشه.

اگر با جای کارشناسی با اطلاعات ناقص در ایران که کار همه شده می مطالعه می کردیم به اینجا نمی رسیدیم معماری maxwell یکی از بهترین معماری ها هست که اگر ریزش رو مطالعه کنید میفهمید nvidia کجا هست amd کجا
به لطف این معماری هم مصرف به شدت کاهش پیدا کرده هم حرارت برای همینم هست که عمر کارت های nvidia چند برابر کارت های amd هست که من هر رفیقی داشتم مشکل خرابی کارت هاشونو دیدم در رده های های اندش
تازه معماری mxwell قرار بود 20nm باشه که با بدقولی tsmc تایوان همون 28nm ساخته شد با این حال مورد تحسین همه ی منتقدا قرار گرفت.
در اخر هم بد نیست نگای به مصرف کارت های سری جدید داشته باشیم تاخیر بسیار زیاد amd هم در نظر بگیرید تازه
power_multimon.gif


power_bluray.gif


power_maximum.gif
 
آخرین ویرایش:
اصلا دلیل اینکه چرا کسی باید حامی amd باشه برام روشن نیست اینکه گند زده به کنسول های نسل بعد کافی نیست؟ طراحی ابر ضعیفش برای 360 که فرت و فرت می سوخت کافی نبود طراحی فاجعه ی cpu هاش که حتی 8 تا هستش در حد 2 هسته ی intel نیست کافی نیست؟ مشککلات حرارتیش خرابی های خیلی زیادش کیفیت پایینش کافی نیست؟ معماری ضعیفش کافی نیست؟

amd بعد از 8 ماه یا شایدم بیشتر سری جدید کارت گرافیک عرضه کرده که از سری m nvidia هم ضعیف تر عمل کرده تا با 8 گیگ رم گرافکی هم به پای 4 گیگ nvidia نرسیده fury x هم هنر کرده با معماری جدید رم گرافیکی با خنک کننده ی ابی با کلی زحمت بازم به پای 980 ti نرسیده تنها در res های خیلی بالا بهش رسیده اونم نه به لطف معماریش بلکه به لطف hbm memory که نسخه ی 2 قراره برای معماری پاسکال nvidia به کار گرفته بشه.

اگر با جای کارشناسی با اطلاعات ناقص در ایران که کار همه شده می مطالعه می کردیم به اینجا نمی رسیدیم معماری maxwell یکی از بهترین معماری ها هست که اگر ریزش رو مطالعه کنید میفهمید nvidia کجا هست amd کجا
به لطف این معماری هم مصرف به شدت کاهش پیدا کرده هم حرارت برای همینم هست که عمر کارت های nvidia چند برابر کارت های amd هست که من هر رفیقی داشتم مشکل خرابی کارت هاشونو دیدم در رده های های اندش
تازه معماری mxwell قرار بود 20nm باشه که با بدقولی tsmc تایوان همون 28nm ساخته شد با این حال مورد تحسین همه ی منتقدا قرار گرفت.
در اخر هم بد نیست نگای به مصرف کارت های سری جدید داشته باشیم تاخیر بسیار زیاد amd هم در نظر بگیرید تازه
کارتهای AMD انقدرهام که شما میگی فاجعه نیستن دوست من. معماری و کلا سیاست ایندوتا کمپانی متفاوته. AMD إیشتر اولویت رو روی توان خام محاسباتی و سخت افزار قوی گذاشته ازون سمت از نظر ساپورت نرم افزاری کارتهاش ضعیفتره. Nvidia روی ساخت سخت افزار یکم محتاطه ولی ساپورت نرم افزاری قوی داره تا حداکثر توان سخت افزارش رو بیرون بکشه. تفاوت در اینه.
اینکه مصرف بالا باشه (که البته توی مقایسه ی بین Fury X , 980ti تفاوت چندانی نیست. 250 درمقابل 275 وات) انقدرهام فاکتور مهمی نیست. معمولا کسی که سیستم برای گیمینگ جمع میکنه حتی ۱۰۰وات بالا پایین توی انتخاب کارت براش مشکلی ایجاد نمیکنه.
 
اصلا دلیل اینکه چرا کسی باید حامی amd باشه برام روشن نیست اینکه گند زده به کنسول های نسل بعد کافی نیست؟ طراحی ابر ضعیفش برای 360 که فرت و فرت می سوخت کافی نبود طراحی فاجعه ی cpu هاش که حتی 8 تا هستش در حد 2 هسته ی intel نیست کافی نیست؟ مشککلات حرارتیش خرابی های خیلی زیادش کیفیت پایینش کافی نیست؟ معماری ضعیفش کافی نیست؟

amd بعد از 8 ماه یا شایدم بیشتر سری جدید کارت گرافیک عرضه کرده که از سری m nvidia هم ضعیف تر عمل کرده تا با 8 گیگ رم گرافکی هم به پای 4 گیگ nvidia نرسیده fury x هم هنر کرده با معماری جدید رم گرافیکی با خنک کننده ی ابی با کلی زحمت بازم به پای 980 ti نرسیده تنها در res های خیلی بالا بهش رسیده اونم نه به لطف معماریش بلکه به لطف hbm memory که نسخه ی 2 قراره برای معماری پاسکال nvidia به کار گرفته بشه.

اگر با جای کارشناسی با اطلاعات ناقص در ایران که کار همه شده می مطالعه می کردیم به اینجا نمی رسیدیم معماری maxwell یکی از بهترین معماری ها هست که اگر ریزش رو مطالعه کنید میفهمید nvidia کجا هست amd کجا
به لطف این معماری هم مصرف به شدت کاهش پیدا کرده هم حرارت برای همینم هست که عمر کارت های nvidia چند برابر کارت های amd هست که من هر رفیقی داشتم مشکل خرابی کارت هاشونو دیدم در رده های های اندش
تازه معماری mxwell قرار بود 20nm باشه که با بدقولی tsmc تایوان همون 28nm ساخته شد با این حال مورد تحسین همه ی منتقدا قرار گرفت.
در اخر هم بد نیست نگای به مصرف کارت های سری جدید داشته باشیم تاخیر بسیار زیاد amd هم در نظر بگیرید تازه

سونی و مایکروسافت از AMD چیپی میخواستن که قیمت تمام شدش زیر 100 دلار باشه و AMD هم چنین چیپی رو بهشون تحویل داده. اگر سونی و مایکروسافت میخواستن همون روال ابتدایی نسل پیش رو ادامه بدن (CPU و GPU جدا از هم) و بعد در ادامه اونها رو به یک SoC تبدیل کنن (کاری که مایکروسافت با CPU و GPUـه 360 انجام داد) هر دو شرکت یا میبایست قیمت تمام شده بالای کنسولها رو خودشون متقبل بشن و یا اینکه پول بیشتری رو از مشتری طلب کنن که در هر دو مورد به ضرر خودشون و کنسول ها میشد. AMD دقیقاً چیزی رو تحویل این دو شرکت داده که ازش خواسته شده.

الان چیپهای Core i5 6600K و Core i7 6700Kـه اینتل که از آخرین GPUـه اینتل تحت عنوان Intel HD 530 استفاده میکنن (فکر میکنم) که 1.1TF قدرت داره (کمی ضعیفتر از XB1) و در کنار اون از DX12 هم پشتیبانی کامل میکنه، به ترتیب حدود 350$ و 240$ قیمت دارن. کاملاً واضحه که این چیپها پیشرفته تر از چیزی هستن که در PS4 و XB1 استفاده شدن ولی اولاً قدرت پردازشی GPU اونها به اندازه این دو کنسول نیست و ثانیاً قیمتشون برای یک کنسول مناسب نیست.

طراحی چیپ 360 هم بسیار عالی و قدرتمند بود در زمان خودش (قویترین چیزی که میشده در اون زمان متصور شد رو از نظر گرافیکی ارائه میداد) و نکات جدیدی رو در طراحی خودش داشت و در واقع سوختن کنسول ربطی به AMD نداشت. از نظر CPU هم که باز این کاملاً مشخص هست که تعداد هسته مشخص کننده قدرت کلی CPU نبوده و نیست. معماری GCN هم هنوز به طور مناسب ازش استفاده نشده و باید دید تحت DX12 چطور عمل میکنه چون همونطور که گفتم این معماری در Compute و Async Compute کاملاً برتری داشته به GPUهای Nvidia و باید دید که بهینه سازیهای AMD در طول این چند سال برای این قابلیتها در GPUهاش چطور روی این API جدید جواب میده. در واقع DX11 به هیچ عنوان از Async Compute استفاده نمیکرده و اجازه انجام این کار رو هم به بازیسازها نمیداده و این کمبود با DX12 حل میشه.

نکته جالب هم اینه که معماری Fury X و 7970 در عمل تفاوت چندانی ندارن و شاید فقط بشه به یسری بهینه سازیها در سخت افزار PRT (که به FL11_2 تبدیلش کرده) و اضافه شدن ACEها و یسری تغییر جزئی دیگه برای کم کردن انرژی مصرفی اشاره کرد. Nvidia معماری خودش رو در طول این چند سال بخوبی برای DX11 بهینه کرده و مقایسه نتایج DX11 و DX12 روی کارتهای Nvidia نشون میده که در این راه خیلی هم موفق عمل کردن اما این امکان وجود داره که بوستی که GPUهای AMD از DX12 میگیرن بیشتر از بوستی باشه که GPUهای Nvidia میگیرن چون DX12 خیلی از کمبودهای GPUهای AMD مثل ضعف Command Processorها (که برای GPUهای Nvidia چندان حاد نبود) و یا مثلاً ضعف AMD در بهینه کردن درایورها (روی DX11 برای هر بازی خود شرکت سازنده GPU میبایست درایورهایی رو عرضه میکرد که مشکلات بازی رو مرتفع کنه، یعنی خود API برای بازیساز ساده و شسته رفته بود و پیچیدگی کار و رفع و رجوع کردن مشکلات به عهده سازنده GPU بود، اما الان Driverها ساده تر شدن و اختیارات بیشتری رو به بازیسازها میدن و در طرف مقابل این بازیسازها و برنامه نویسها هستن که باید خودشون مشکلات و پیچیدگیها رو رفع کنن و به همین دلیل هم امکان داره خیلی از استدیوها رو بیارن به استفاده از انجینهای معروف مثل UE4 و Unity و ... که رفع و رجوع کردن مشکلات پیچیده رو خودشون متقبل میشن) رو از بین میبره یا کمرنگ میکنه، البته باید منتظر موند و دید که در نهایت چی میشه ولی چیزی که مشخصه این هست که نتایجی که این کارتها تحت DX12 خواهند گرفت الزاماً همون چیزی نخواهد شد که از DX11 سراغ داشتیم/داریم.
 
سونی و مایکروسافت از AMD چیپی میخواستن که قیمت تمام شدش زیر 100 دلار باشه و AMD هم چنین چیپی رو بهشون تحویل داده. اگر سونی و مایکروسافت میخواستن همون روال ابتدایی نسل پیش رو ادامه بدن (CPU و GPU جدا از هم) و بعد در ادامه اونها رو به یک SoC تبدیل کنن (کاری که مایکروسافت با CPU و GPUـه 360 انجام داد) هر دو شرکت یا میبایست قیمت تمام شده بالای کنسولها رو خودشون متقبل بشن و یا اینکه پول بیشتری رو از مشتری طلب کنن که در هر دو مورد به ضرر خودشون و کنسول ها میشد. AMD دقیقاً چیزی رو تحویل این دو شرکت داده که ازش خواسته شده.

الان چیپهای Core i5 6600K و Core i7 6700Kـه اینتل که از آخرین GPUـه اینتل تحت عنوان Intel HD 530 استفاده میکنن (فکر میکنم) که 1.1TF قدرت داره (کمی ضعیفتر از XB1) و در کنار اون از DX12 هم پشتیبانی کامل میکنه، به ترتیب حدود 350$ و 240$ قیمت دارن. کاملاً واضحه که این چیپها پیشرفته تر از چیزی هستن که در PS4 و XB1 استفاده شدن ولی اولاً قدرت پردازشی GPU اونها به اندازه این دو کنسول نیست و ثانیاً قیمتشون برای یک کنسول مناسب نیست.

طراحی چیپ 360 هم بسیار عالی و قدرتمند بود در زمان خودش (قویترین چیزی که میشده در اون زمان متصور شد رو از نظر گرافیکی ارائه میداد) و نکات جدیدی رو در طراحی خودش داشت و در واقع سوختن کنسول ربطی به AMD نداشت. از نظر CPU هم که باز این کاملاً مشخص هست که تعداد هسته مشخص کننده قدرت کلی CPU نبوده و نیست. معماری GCN هم هنوز به طور مناسب ازش استفاده نشده و باید دید تحت DX12 چطور عمل میکنه چون همونطور که گفتم این معماری در Compute و Async Compute کاملاً برتری داشته به GPUهای Nvidia و باید دید که بهینه سازیهای AMD در طول این چند سال برای این قابلیتها در GPUهاش چطور روی این API جدید جواب میده. در واقع DX11 به هیچ عنوان از Async Compute استفاده نمیکرده و اجازه انجام این کار رو هم به بازیسازها نمیداده و این کمبود با DX12 حل میشه.

نکته جالب هم اینه که معماری Fury X و 7970 در عمل تفاوت چندانی ندارن و شاید فقط بشه به یسری بهینه سازیها در سخت افزار PRT (که به FL11_2 تبدیلش کرده) و اضافه شدن ACEها و یسری تغییر جزئی دیگه برای کم کردن انرژی مصرفی اشاره کرد. Nvidia معماری خودش رو در طول این چند سال بخوبی برای DX11 بهینه کرده و مقایسه نتایج DX11 و DX12 روی کارتهای Nvidia نشون میده که در این راه خیلی هم موفق عمل کردن اما این امکان وجود داره که بوستی که GPUهای AMD از DX12 میگیرن بیشتر از بوستی باشه که GPUهای Nvidia میگیرن چون DX12 خیلی از کمبودهای GPUهای AMD مثل ضعف Command Processorها (که برای GPUهای Nvidia چندان حاد نبود) و یا مثلاً ضعف AMD در بهینه کردن درایورها (روی DX11 برای هر بازی خود شرکت سازنده GPU میبایست درایورهایی رو عرضه میکرد که مشکلات بازی رو مرتفع کنه، یعنی خود API برای بازیساز ساده و شسته رفته بود و پیچیدگی کار و رفع و رجوع کردن مشکلات به عهده سازنده GPU بود، اما الان Driverها ساده تر شدن و اختیارات بیشتری رو به بازیسازها میدن و در طرف مقابل این بازیسازها و برنامه نویسها هستن که باید خودشون مشکلات و پیچیدگیها رو رفع کنن و به همین دلیل هم امکان داره خیلی از استدیوها رو بیارن به استفاده از انجینهای معروف مثل UE4 و Unity و ... که رفع و رجوع کردن مشکلات پیچیده رو خودشون متقبل میشن) رو از بین میبره یا کمرنگ میکنه، البته باید منتظر موند و دید که در نهایت چی میشه ولی چیزی که مشخصه این هست که نتایجی که این کارتها تحت DX12 خواهند گرفت الزاماً همون چیزی نخواهد شد که از DX11 سراغ داشتیم/داریم.

شما قراره چندین سال با کنسول حال کنید ارزش 200 دلار بیشتر رو نداشت؟

مشکل حرارت بیش از حد 360 دقیقا تقصیر کی بود پس؟ چطور شد زمانی که چیپ 65nm شد مشکلات حل شد حتی سری فالکون که cpu تنها 65nm شد بازم مشکلات خیلی زیادی داشت چه بسا بدترم شد. دیگه همه می دونیم مشکل 360 از gpu بود از چی دفاع می کنید؟

کارتهای AMD انقدرهام که شما میگی فاجعه نیستن دوست من. معماری و کلا سیاست ایندوتا کمپانی متفاوته. AMD إیشتر اولویت رو روی توان خام محاسباتی و سخت افزار قوی گذاشته ازون سمت از نظر ساپورت نرم افزاری کارتهاش ضعیفتره. Nvidia روی ساخت سخت افزار یکم محتاطه ولی ساپورت نرم افزاری قوی داره تا حداکثر توان سخت افزارش رو بیرون بکشه. تفاوت در اینه.
اینکه مصرف بالا باشه (که البته توی مقایسه ی بین Fury X , 980ti تفاوت چندانی نیست. 250 درمقابل 275 وات) انقدرهام فاکتور مهمی نیست. معمولا کسی که سیستم برای گیمینگ جمع میکنه حتی ۱۰۰وات بالا پایین توی انتخاب کارت براش مشکلی ایجاد نمیکنه.

fury x با خنک کننده ی ابی با رم hbm که خیلی کم مصرف هست لطف کرده بازم مصرفش از 980ti بیشتر شده این یعنی ضعف طراحی تازه میزان اورکلاک fury x خیلی خیلی کمتر از 980ti هست این یعنی اگر شما مدل غیر ریفرنس بخرید اختلاف بیشتر از اینا هم به مراتب می شه اگر اهل اورکلاکم باشید ک دیگه هیچی
1ضعف دیگش یه که حتی مدل air cooling هم نتونسته بده

حتی تازه اگر هم بگیم fury x چیز بدی نیست ارزش خرید داره بقیه ی کارت های سری جدیدش خیلی کم هست چرا از 390x یا کارت های مشابهش حرفی نمی زنید که مصرف 2 برابر 980 هست؟ داغ تره کمترم اورکلاک می شه دیر ترم عرضه شده اگر این اسمش فاجعه نیست پس چیه؟ اختلاف 390x هم که با 290x زیاد نیست. مصرفش تازه بیشترم شده
 
سونی و مایکروسافت از AMD چیپی میخواستن که قیمت تمام شدش زیر 100 دلار باشه و AMD هم چنین چیپی رو بهشون تحویل داده. اگر سونی و مایکروسافت میخواستن همون روال ابتدایی نسل پیش رو ادامه بدن (CPU و GPU جدا از هم) و بعد در ادامه اونها رو به یک SoC تبدیل کنن (کاری که مایکروسافت با CPU و GPUـه 360 انجام داد) هر دو شرکت یا میبایست قیمت تمام شده بالای کنسولها رو خودشون متقبل بشن و یا اینکه پول بیشتری رو از مشتری طلب کنن که در هر دو مورد به ضرر خودشون و کنسول ها میشد. AMD دقیقاً چیزی رو تحویل این دو شرکت داده که ازش خواسته شده.

الان چیپهای Core i5 6600K و Core i7 6700Kـه اینتل که از آخرین GPUـه اینتل تحت عنوان Intel HD 530 استفاده میکنن (فکر میکنم) که 1.1TF قدرت داره (کمی ضعیفتر از XB1) و در کنار اون از DX12 هم پشتیبانی کامل میکنه، به ترتیب حدود 350$ و 240$ قیمت دارن. کاملاً واضحه که این چیپها پیشرفته تر از چیزی هستن که در PS4 و XB1 استفاده شدن ولی اولاً قدرت پردازشی GPU اونها به اندازه این دو کنسول نیست و ثانیاً قیمتشون برای یک کنسول مناسب نیست.

طراحی چیپ 360 هم بسیار عالی و قدرتمند بود در زمان خودش (قویترین چیزی که میشده در اون زمان متصور شد رو از نظر گرافیکی ارائه میداد) و نکات جدیدی رو در طراحی خودش داشت و در واقع سوختن کنسول ربطی به AMD نداشت. از نظر CPU هم که باز این کاملاً مشخص هست که تعداد هسته مشخص کننده قدرت کلی CPU نبوده و نیست. معماری GCN هم هنوز به طور مناسب ازش استفاده نشده و باید دید تحت DX12 چطور عمل میکنه چون همونطور که گفتم این معماری در Compute و Async Compute کاملاً برتری داشته به GPUهای Nvidia و باید دید که بهینه سازیهای AMD در طول این چند سال برای این قابلیتها در GPUهاش چطور روی این API جدید جواب میده. در واقع DX11 به هیچ عنوان از Async Compute استفاده نمیکرده و اجازه انجام این کار رو هم به بازیسازها نمیداده و این کمبود با DX12 حل میشه.

نکته جالب هم اینه که معماری Fury X و 7970 در عمل تفاوت چندانی ندارن و شاید فقط بشه به یسری بهینه سازیها در سخت افزار PRT (که به FL11_2 تبدیلش کرده) و اضافه شدن ACEها و یسری تغییر جزئی دیگه برای کم کردن انرژی مصرفی اشاره کرد. Nvidia معماری خودش رو در طول این چند سال بخوبی برای DX11 بهینه کرده و مقایسه نتایج DX11 و DX12 روی کارتهای Nvidia نشون میده که در این راه خیلی هم موفق عمل کردن اما این امکان وجود داره که بوستی که GPUهای AMD از DX12 میگیرن بیشتر از بوستی باشه که GPUهای Nvidia میگیرن چون DX12 خیلی از کمبودهای GPUهای AMD مثل ضعف Command Processorها (که برای GPUهای Nvidia چندان حاد نبود) و یا مثلاً ضعف AMD در بهینه کردن درایورها (روی DX11 برای هر بازی خود شرکت سازنده GPU میبایست درایورهایی رو عرضه میکرد که مشکلات بازی رو مرتفع کنه، یعنی خود API برای بازیساز ساده و شسته رفته بود و پیچیدگی کار و رفع و رجوع کردن مشکلات به عهده سازنده GPU بود، اما الان Driverها ساده تر شدن و اختیارات بیشتری رو به بازیسازها میدن و در طرف مقابل این بازیسازها و برنامه نویسها هستن که باید خودشون مشکلات و پیچیدگیها رو رفع کنن و به همین دلیل هم امکان داره خیلی از استدیوها رو بیارن به استفاده از انجینهای معروف مثل UE4 و Unity و ... که رفع و رجوع کردن مشکلات پیچیده رو خودشون متقبل میشن) رو از بین میبره یا کمرنگ میکنه، البته باید منتظر موند و دید که در نهایت چی میشه ولی چیزی که مشخصه این هست که نتایجی که این کارتها تحت DX12 خواهند گرفت الزاماً همون چیزی نخواهد شد که از DX11 سراغ داشتیم/داریم.
من دقیق نمی دونم چی رو میگی، ولی فکر کنم منظورت حساب کردن های پیچیده ریاضی رو GPU باشه منظورت. این رو اگه اشتباه نکنم DX11 یه چیزی داره(میگم چیز چون نمی دونم چی باید بهش بگم:دی) به نام DirectCompute که همین کار رو می کنه. کار های باحالی هم باهاش انجام میدن، مثلا شبیه سازی صدای موتور یا کار های فوق سنگین دیگه که اگه بخوان با CPU انجامش بدن 2 فریم هم نمی گیری.
اگه هم که یه چیز دیگه رو داری می گی هم که شرمنده.
 
شما قراره چندین سال با کنسول حال کنید ارزش 200 دلار بیشتر رو نداشت؟
نسل قبل و نسل حاضر نشون دادن که خیر.. بدیهی هم هست دلیلش.. اگر طرف بخواد زیاد پول بده خب میره سمت PC دیگه نمیاد کنسول بگیره...
(PS3 با قیمت 600 دلار و Xbox One با 500 دلار مثال خیلی خوبین..)
 

کاربرانی که این گفتگو را مشاهده می‌کنند

Top
رمز عبور خود را فراموش کرده اید؟
اگر میخواهی عضوی از بازی سنتر باشی همین حالا ثبت نام کن
or