جدید ترین اخبار سخت افزار و نرم افزار بازار PC

{ehsan}

کاربر سایت
Nov 29, 2005
2,177
نام
ehsan
درود
تست 6 ماه پیش
rtx 3080 مصرف vram هم در 4k حدود 7 گیگ / مصرف gpu حدود 360w

View attachment 205334
دقیقا همون کانال و rtx 3080 و نسخه enhanced edition

مصرف vram در 4k حدود 8.3 گیگ / مصرف gpu حدود 430w

View attachment 205335


البته به لطف dlss مصرف vram و فریم بهتر می شه
8 گیگ vram برای 4k مناسب نیست /1440p هم شاید تا 2022

اول از همه باید بگم من منظورم بنچمارک تامز هاردور بودش در حالت 1440p در حالت 4K که اصلا تست نشده .(بله این دوتا کارت 4K نیستند)

مورد دوم ... شرایط مقایسه این دو ورژن ... (ورژن جدید کلا برای ریتریسینگ بهینه شده و تغییرات کلی هم داشته) را چطوری مقایسه کردید در صورتی که دوتا سین (فریم ) متفاوت با سخت افزار متفاوت! عجیبه !
اطلاع هم دارید که پردازنده ی 5600X یکی از قویترین ها هستش در مقابل 3600 وانیلی ...(CPU بهتر = گلوگاه کمتر = GPU Usage بیشتر = فرکانس بیشتر = ولتاژ و وات بیشتر = حرارت بیشتر )

و اگر بررسی DF را دیده باشید متوجه میشید که ورژن جدید بهینه تر هستش ! (نتیجه ی محصول با چیزی که من گفتم تفاوتی نداره)

در نهایت اگر حتی اگر دوتا صحنه ی مشابه باشند کارهای عجیب و غریب AMD را توی بخش GPU توجیه نمیکنه ...



مجبور شدم یکم بیشتر دقت کنم توی تصویر ..

شما بدون دیوایس مخصوص نمیتونید مصرف برق GPU را اندازه گیری کنید اون مصرف مجموعه چند تا قطعه هستش
و اینکه به فرکانس CPU دقت کنید ... !
حقیقتش حوصلم نکشید بقیه موارد را هم تحلیل کنم.
 

Attachments

  • VSSS.jpg
    VSSS.jpg
    328.3 KB · مشاهده: 12
آخرین ویرایش:

kourooshkabir25

کاربر سایت
Apr 4, 2017
5,355
اول از همه باید بگم من منظورم بنچمارک تامز هاردور بودش در حالت 1440p در حالت 4K که اصلا تست نشده .(بله این دوتا کارت 4K نیستند)

مورد دوم ... شرایط مقایسه این دو ورژن ... (ورژن جدید کلا برای ریتریسینگ بهینه شده و تغییرات کلی هم داشته) را چطوری مقایسه کردید در صورتی که دوتا سین (فریم ) متفاوت با سخت افزار متفاوت! عجیبه !
اطلاع هم دارید که پردازنده ی 5600X یکی از قویترین ها هستش در مقابل 3600 وانیلی ...(CPU بهتر = گلوگاه کمتر = GPU Usage بیشتر = فرکانس بیشتر = وات بیشتر = حرارت بیشتر )

و اگر بررسی DF را دیده باشید متوجه میشید که ورژن جدید بهینه تر هستش ! (نتیجه ی محصول با چیزی که من گفتم تفاوتی نداره)

در نهایت اگر حتی اگر دوتا صحنه ی مشابه باشند کارهای عجیب و غریب AMD را توی بخش GPU توجیه نمیکنه ...



مجبور شدم یکم بیشتر دقت کنم توی تصویر ..

شما بدون دیوایس مخصوص نمیتونید مصرف برق GPU را اندازه گیری کنید اون مصرف مجموعه چند تا قطعه هستش
و اینکه به فرکانس CPU دقت کنید ... !
حقیقتش حوصلم نکشید بقیه موارد را هم تحلیل کنم.
ویدیو ها رو تو SPOILER فرستادم
vram تقریبا همین حدود
5600x هم در حد 3600 حداکثر 10w بیشتر ( اون 80 درصد هم مصرف GPU نیست, دور فن )
موتور RE کلا vram بالایی می خواد

Resident Evil 3

1620388087623.png

RE8 هم از نظر بهینه سازی خارق العاده است و با کارت های مثل 2070 / RX 5700XT /2060S هم به راحتی 4K 60 فریم اجرا می شه

افزایش مصرف VRAM با تغییر نسل هم یه اتفاق طبیعیه , نسل قبل هم BLACK FLAG حداکثر 2 گیگ بود / یکسال بعد با UNITY به 3.5 تا 4 گیگ رسید

 
آخرین ویرایش:
  • Love
Reactions: HIGH VOLTAGE

{ehsan}

کاربر سایت
Nov 29, 2005
2,177
نام
ehsan
ویدیو ها رو تو SPOILER فرستادم
vram تقریبا همین حدود
5600x هم در حد 3600 حداکثر 10w بیشتر ( اون 80 درصد هم مصرف GPU نیست, دور فن )
موتور RE کلا vram بالایی می خواد

Resident Evil 3

View attachment 205342

RE8 هم از نظر بهینه سازی خارق العاده است و با کارت های مثل 2070 / RX 5700XT /2060S هم به راحتی 4K 60 فریم اجرا می شه

افزایش مصرف VRAM با تغییر نسل هم یه اتفاق طبیعیه , نسل قبل هم BLACK FLAG حداکثر 2 گیگ بود / یکسال بعد با UNITY به 3.5 تا 4 گیگ رسید

دو تا بنچمارک با شرایط متفاوت اصلا منبع خوبی نیست ! ادامه ی این بحث به جایی نمیرسه .

در ضمن قبل از این بازی بازی های نسل جدید خیلی وقت هست موجود هستند بحث سر این بود که چطوری یک بازی با فضای محدود اینهمه Vram مصرف میکنه در مقابل بقیه بازی ها در صورتی که توی 1440 هم مشکل پیدا شده با رم 8 گیگ .... ! و اینکه بازی اول نسلی باشه یا آخر هاش .

در مورد بازی های AMD باند هم قبلا assassin's creed valhalla را داشتیم که مثلا تفاوت 3080 با 3070 یک چیز عجیب و غریبی بود ... ربطی هم به نسل جدید و رم بیشتر نداشتن .

AMD شدیدا توی این نسل عقب افتاده و دیگه بیشتر از این نمیشه منکر Raytracing و DLSS شد .
به همین منوال هم نمیشه برای سیاست مسخره انویدیا توی VRAM هم بهونه آورد .
ولی نه تا این حد که AMD این نقطه ضعف را به ما تحمیل کنه (اشتهای بالای Vram برای یک بازی پر از No-go area ...)

خیلی سادست انتظار مصرف کننده .... یک بازی با محیط و فضای محدود و مصرف Vram کمتر از یک بازی Open world
کلا AMD سیاستش شده کاهش سرعت حریف نه افزایش سرعت خودش و ... (البته توی GPU ها فعلا )


ویرایش :
نوشته ی شما ...
5600x هم در حد 3600 حداکثر 10w بیشتر ( اون 80 درصد هم مصرف GPU نیست, دور فن )
چقدر دقیق حساب کردید تفاوت مصرف دوتا CPU کاملا متفاوت را !

پس این تفاوت مصرف احتمالا بر میگرده به 3080 (کارت یکسان) با 1.6 درصد فرکانس بیشتر (و البته 20 درصد هم سرعت دستی فن بیشتر )
 
آخرین ویرایش:

kourooshkabir25

کاربر سایت
Apr 4, 2017
5,355
دو تا بنچمارک با شرایط متفاوت اصلا منبع خوبی نیست ! ادامه ی این بحث به جایی نمیرسه .

در ضمن قبل از این بازی بازی های نسل جدید خیلی وقت هست موجود هستند بحث سر این بود که چطوری یک بازی با فضای محدود اینهمه Vram مصرف میکنه در مقابل بقیه بازی ها در صورتی که توی 1440 هم مشکل پیدا شده با رم 8 گیگ .... ! و اینکه بازی اول نسلی باشه یا آخر هاش .

در مورد بازی های AMD باند هم قبلا assassin's creed valhalla را داشتیم که مثلا تفاوت 3080 با 3070 یک چیز عجیب و غریبی بود ... ربطی هم به نسل جدید و رم بیشتر نداشتن .

AMD شدیدا توی این نسل عقب افتاده و دیگه بیشتر از این نمیشه منکر Raytracing و DLSS شد .
به همین منوال هم نمیشه برای سیاست مسخره انویدیا توی VRAM هم بهونه آورد .
ولی نه تا این حد که AMD این نقطه ضعف را به ما تحمیل کنه (اشتهای بالای Vram برای یک بازی پر از No-go area ...)

خیلی سادست انتظار مصرف کننده .... یک بازی با محیط و فضای محدود و مصرف Vram کمتر از یک بازی Open world
کلا AMD سیاستش شده کاهش سرعت حریف نه افزایش سرعت خودش و ... (البته توی GPU ها فعلا )


ویرایش :
نوشته ی شما ...

چقدر دقیق حساب کردید تفاوت مصرف دوتا CPU کاملا متفاوت را !

پس این تفاوت مصرف احتمالا بر میگرده به 3080 (کارت یکسان) با 1.6 درصد فرکانس بیشتر (و البته 20 درصد هم سرعت دستی فن بیشتر )
بالا اشاره کردم موتور RE کلا vram بالایی می خواد , RE3 یه بازی خطی اما در 4K داره 7.4 گیگ مصرف می کنه
--
2008 تا همین اواخر فراموش کردین بازی های که انویدیا همکاری می کردن چه عمکلرد فاجعه ای روی کارت های AMD داشتن ؟
---------
3080 و 5600X
1620393726522.png 1620393624672.png

در مورد افزایش سرعت AMD
RX 6700XT با 2560 شیدر حدود 30 درصد بهتر از RX 5700XT که اون هم 2560 شیدر و 241 درصد بهتر از RX 580 که 2304 شیدر بود
3060TI با 4864 کودا حدود 30 درصد بهتر از 2060S با 2174 کودا و 234 درصد بهتر از 1060 که 1280 کودا داشت

عملا AMD معجزه کرده
سه سال پیش رسیدن به کلاک 1600 برای AMD ناممکن بود , امروز کلاک معمول RX 6700XT حدود 2550 8->

مشکل سرعت پیشرفت AMD نیست , AMD همین الان از نظر قدرت rasterisation شیدر ها انویدیا پشت سر گذاشته
انویدیا بیش از یک ده است روی ray tracing , هوش مصنوعی و machine learning کار می کنه و میلیارد ها دلار هزینه کرده و موفق شده زمین بازی کلا تغییر بده
دیگه امروز قدرت rasterisation اهمیتی نداره , مهم ray tracing و machine learning

هیچ دکمه جادویی وجود نداره که AMD یک باره به سطح انویدیا برسه ,AMD هم باید سالها کار کنه و میلیارد ها دلار هزینه کنه و احتمالا 2023 به سطح قابل قبولی می رسه
 
آخرین ویرایش:

rahyarpaul

کاربر سایت
Mar 17, 2011
10,917
نام
محمد حسین
این نسخه اولیه هست . خود dlss هم تا ورژن 2 خیلی چیز جالبی نبود.
اگر AMD بطور مستمر بهبودش بده شاید برای نسل بعدش بتونه رقابت کنه.
amd الان دو تا مساله هست. یکی داره اپ اسکیل میکنه. مزیت: راحتی ااستفاده هست ولی کارایی کمتر ولی کیفیت چی.
میتونه مثل dlss باشه که کیفیتم مو نمیزنه با 4k واقعی؟
من ححس نمیکنم بشه دقیقا بهش گفت رقیب dlss. چون به نظر میاد همون super sampling هست و بهبودش دادن. همین برا ایکس باکس اومده و ممکنه برا سونی بیاد.
شاید هم نسل بعد یه چیز اختصاصی برا pc رو کنه. ولی این چیزی که میگن برا انویدیا هم قابل استفاده هست مثل sam میشه.
انویدیا سریع ،اگه amd هم نزاره رو کارتای انویدیا اجرا بشه، خودش یه مشابهشو میده بیرون.
که اگه اینجوری بشه،میشه همون آش و همون کاسه.
 
  • Like
Reactions: {ehsan}

{ehsan}

کاربر سایت
Nov 29, 2005
2,177
نام
ehsan
بالا اشاره کردم موتور RE کلا vram بالایی می خواد , RE3 یه بازی خطی اما در 4K داره 7.4 گیگ مصرف می کنه
--
2008 تا همین اواخر فراموش کردین بازی های که انویدیا همکاری می کردن چه عمکلرد فاجعه ای روی کارت های AMD داشتن ؟
---------
3080 و 5600X
View attachment 205355View attachment 205354

در مورد افزایش سرعت AMD
RX 6700XT با 2560 شیدر حدود 30 درصد بهتر از RX 5700XT که اون هم 2560 شیدر و 241 درصد بهتر از RX 580 که 2304 شیدر بود
3060TI با 4864 کودا حدود 30 درصد بهتر از 2060S با 2174 کودا و 234 درصد بهتر از 1060 که 1280 کودا داشت

عملا AMD معجزه کرده
سه سال پیش رسیدن به کلاک 1600 برای AMD ناممکن بود , امروز کلاک معمول RX 6700XT حدود 2550 8->

مشکل سرعت پیشرفت AMD نیست , AMD همین الان از نظر قدرت rasterisation شیدر ها انویدیا پشت سر گذاشته
انویدیا بیش از یک ده است روی ray tracing , هوش مصنوعی و machine learning کار می کنه و میلیارد ها دلار هزینه کرده و موفق شده زمین بازی کلا تغییر بده
دیگه امروز قدرت rasterisation اهمیتی نداره , مهم ray tracing و machine learning

هیچ دکمه جادویی وجود نداره که AMD یک باره به سطح انویدیا برسه ,AMD هم باید سالها کار کنه و میلیارد ها دلار هزینه کنه و احتمالا 2023 به سطح قابل قبولی می رسه
pic_disp (2).jpg
:) موفق باشید دوست عزیز و پر از معجزه ...
 
آخرین ویرایش:

rahyarpaul

کاربر سایت
Mar 17, 2011
10,917
نام
محمد حسین
غیر از معجزات amd ، معجزات بازیسنتری هم داریم که واقعا، بی نظیرن و علوم جدیدی رو به ما می آموزند.
2021-05-07_21-13-31.jpg 2021-05-07_21-08-12.jpg

که 108/72 میشه 50 که همون حدود 30 درصده اختلاف 3060ti و 2060s هست
یا 60/41 میشه 46 که همون حدود 30 هست
_______________
به سایر معجزات نمیپردازیم، چون که بحث در موردش زیاده، ولی همین بس که
2060s نسل قبل با قیمت 399 دلار میاد و امسال رو همون قیمت با حدود 30 درصد افزایش قدرت ( ریاضی بازیسنتری) کارت 3060ti میاد
6700xt با 30 درصد افزایش قدرت نسبت به 5700xt ( بخونید با 38 درصد اور فرکانس نسبت به نسل قبل) میاد ولی با افزایش 80 دلاری.
معجزه گر رو خودتون پیدا کنید. معجزه به اور فرکانس نمیگن، به این میگن که بتونی با حداقل افزایش قیمت، بیشترین بهره وری رو بدست بیاری.
به معجزات amd تو مباحث ری تریسینگ هم اصلا وارد نشیم بهتره


2080ti هم فرکانسش 1545 هست تا 2400 هم فرکانسشو اور کردن و هیچ چیزی نشده. تازه اون 14 بوده و این نسل 8
ولی یچیزی وجود داره به نام سیستم خنک کننده، که نیازه یه کارته وقتی فرکانس بالا میره هسته ها زیاد میشن باید ارتقا پیدا کنه.
ارتقا هم یعنی هزینه. انویدیا نخواسته اینکار رو کنه و هزینه رو مدیریت خواسته بکنه و باعث شده 3060ti با 80 دلار ارزونتر کارایی تقریبا برابر با 6700xt و برتری معنادار تو ری تریسینگ داشته باشه.
_______________________________________
معجزاتی که شما پیدا میکنید بدرد تاپیک vs میخوره نه اینجا.
 
آخرین ویرایش:

rahyarpaul

کاربر سایت
Mar 17, 2011
10,917
نام
محمد حسین
Metro Exodus Enhanced Edition тест GPU/CPU | Action / FPS / TPS | Тест GPU

من این سایت روسی رو خیلی قبولش دارم چون روسی هست پولی از کسی نمی گیره و نتایجشم اکثرا با نتایج خودم یکسانه
نتایجش خوبه ولی ویرایش نمیکنه.
2021-05-07_23-28-21.jpg

تو همین بازیسنتر، نتایج اینو برا یه بازی گذاشته بود core i9 و threadtripperو اینا قیاس شده بودن، شایدم این نبود.
ولی به هر حال، تو اون رایزن r7 یه فریم بالاتر از corei9 زده بود.
میگفت، طرف ببین r7 از i9 بیشتر فریم میده. فریم threadtripper هم، هم انداره i9 بود. گفتم عزیزم اونموقع این amd نابغه چجوری سی پی یو 64 هسته ایش داره هم اندازه i9 فریم میده.
تو همچین جاهایی که gpu گلوگاه میشه، باید ویرایش کنه نتایجشو و مثلا تو اینجا باید نتایج بعد 9350 رو حذف کنه.
واقعا بعضیا نمیدونن گلوگاه چیه.
 

kourooshkabir25

کاربر سایت
Apr 4, 2017
5,355
غیر از معجزات amd ، معجزات بازیسنتری هم داریم که واقعا، بی نظیرن و علوم جدیدی رو به ما می آموزند.
View attachment 205401View attachment 205402

که 108/72 میشه 50 که همون حدود 30 درصده اختلاف 3060ti و 2060s هست
یا 60/41 میشه 46 که همون حدود 30 هست
_______________
به سایر معجزات نمیپردازیم، چون که بحث در موردش زیاده، ولی همین بس که
2060s نسل قبل با قیمت 399 دلار میاد و امسال رو همون قیمت با حدود 30 درصد افزایش قدرت ( ریاضی بازیسنتری) کارت 3060ti میاد
6700xt با 30 درصد افزایش قدرت نسبت به 5700xt ( بخونید با 38 درصد اور فرکانس نسبت به نسل قبل) میاد ولی با افزایش 80 دلاری.
معجزه گر رو خودتون پیدا کنید. معجزه به اور فرکانس نمیگن، به این میگن که بتونی با حداقل افزایش قیمت، بیشترین بهره وری رو بدست بیاری.
به معجزات amd تو مباحث ری تریسینگ هم اصلا وارد نشیم بهتره


2080ti هم فرکانسش 1545 هست تا 2400 هم فرکانسشو اور کردن و هیچ چیزی نشده. تازه اون 14 بوده و این نسل 8
ولی یچیزی وجود داره به نام سیستم خنک کننده، که نیازه یه کارته وقتی فرکانس بالا میره هسته ها زیاد میشن باید ارتقا پیدا کنه.
ارتقا هم یعنی هزینه. انویدیا نخواسته اینکار رو کنه و هزینه رو مدیریت خواسته بکنه و باعث شده 3060ti با 80 دلار ارزونتر کارایی تقریبا برابر با 6700xt و برتری معنادار تو ری تریسینگ داشته باشه.
_______________________________________
معجزاتی که شما پیدا میکنید بدرد تاپیک vs میخوره نه اینجا.
منبع درصد ها سایت techpowerup
1620414741153.png 1620414785375.png
اگه اعتراضی داری برو ایمیل بزن
بعد این همه سال هنوز هم تفاوت فرکانس پایه و اورکلاک متوجه نشدی ؟
فرکانس معمول 2080ti بین 1800 تا 1950
بهترین 2080ti دنیا 1965mhz
MSI GeForce RTX 2080 Ti LIGHTNING Z review
حداکثر اورکلاک بین 2050 تا 2150
---------
نسخه رفرنس rx 6700xt حدود 2500
1620415196789.png
AMD Radeon RX 6700 XT (reference) review
55 درجه
Powercolor RX 6700 XT Hellhound Spectral White review
اورکلاک این کارت 2850MHz و بالاتر
---------
قیمت گذاری ارتباطی به بحث بهبود خارق العاده شیدر های amd نداره
amd در شرایط عادی کارت در همین حدود 400 دلار قیمت گذاری می کرد , دوستان amd دیدن با هر قیمتی قرار بدن مهم نیست و نتیجه اش همین قیمت عجیب 479 دلار
-----------
RX 6700XT با 2560 شیدر بهتر از 3060TI با 4864 کودا عمل کرده
4 سال پیش 1060 با 1280 کودا عملکردی مشابه rx 480 با 2304 شیدر داشت
این معجزه amd
--------------
در مورد rt / ml هم گفتم
انویدیا بیش از یک ده است روی ray tracing , هوش مصنوعی و machine learning کار می کنه , هیچ دکمه جادویی وجود نداره که AMD یک باره به سطح انویدیا برسه ,AMD هم باید سالها کار کنه و میلیارد ها دلار هزینه کنه و احتمالا 2023 به سطح قابل قبولی می رسه
 
آخرین ویرایش:
  • Like
Reactions: jetalpha

rahyarpaul

کاربر سایت
Mar 17, 2011
10,917
نام
محمد حسین
2021-05-08_0-24-42.jpg

66به 47. 40 درصد.
__________________
نمیدونم، شاید یه چیزی رو هی تکرار کنی، ملکه ذهنت بشه و بعد اونا رو جایگزین کنی. بالاخره هی تو vs کپی پیست کردن، اینا رو هم داره
2021-05-08_0-36-14.jpg

خود 2080ti هم نمیدونه فرکانس پایه خودش 1350 نیست 1900 هست.کارتی که تا 2.4 اور شده، فرکانسش
2021-05-08_0-29-33.jpg

بوستش 1665 هست که تا 2.4 رفته.قویترین کارت دنیا که اسمش اومده

2021-05-08_0-31-06.jpg

2021-05-08_0-43-05.jpg

فرکانس بوستش 1770 هست که بازم از میانگین vs بازیسنتری کمتره.
_____________________________
در مورد مطلب اور کلاک، اگه متوجه بشی بحثو، فرکانس بالاتر یعنی گرمای بالاتر.این 2080ti با اون کولر رفرنس طراحی شده برا اون فرکانس
تو aib فرکانس میره یکم بالاتر ، یکم خوشگل میشه یه افزایش فرکانس میدن و سیستم تهویه رو عوض میکنن و گرونتر میدن.
انویدیا هم میتونست معجزه فرکانس بزنه، ولی صرفه اقتصادی نداشته و بجاش به افزایش هسته رو آورده. معجزه ای رخ نداده
______________________________________________
بعدش هم حداقل اگه عکسی میزارید اول یاد بگیرید اون عکس چیه. بعد بزنیدش
2021-05-08_0-56-18.jpg

میدونید که temperature دمای کارته و اینجا 73 هستنه 55 ، تو فرکانس 2486.
ولی این یه ایرادی که داره رم استفاده شده کمه، چون مصرف رم دما رو بالا میبره
2021-05-08_0-58-02.jpg

___________________________________
ارتباط قیمت گذاری هم اینه
2021-05-08_1-04-35.jpg 2021-05-08_1-04-09.jpg

فرکانس 1605 شده 2321. 45 درصد افزایش فرکانس برا بهبود 30 درصدی پرفورمنس.
ویدیوهاشو نگاه کن، میبینی در مورد هت سینکش حرف زده و کولینگ جدیدش.
این افزایش فرکانس خنک کننده قویتر میخواد، اینم ربطش به قیمتش.
_______
دیگه به ساده ترین فرم ممکن توضیحاتو دادم.اون صحبتها بدرد همون vs میخوره
 
آخرین ویرایش:

{ehsan}

کاربر سایت
Nov 29, 2005
2,177
نام
ehsan
منبع درصد ها سایت techpowerup
View attachment 205433View attachment 205435
اگه اعتراضی داری برو ایمیل بزن
بعد این همه سال هنوز هم تفاوت فرکانس پایه و اورکلاک متوجه نشدی ؟
فرکانس معمول 2080ti بین 1800 تا 1950
بهترین 2080ti دنیا 1965mhz
MSI GeForce RTX 2080 Ti LIGHTNING Z review
حداکثر اورکلاک بین 2050 تا 2150
---------
نسخه رفرنس rx 6700xt حدود 2500
View attachment 205437
AMD Radeon RX 6700 XT (reference) review
55 درجه
Powercolor RX 6700 XT Hellhound Spectral White review
اورکلاک این کارت 2850MHz و بالاتر
---------
قیمت گذاری ارتباطی به بحث بهبود خارق العاده شیدر های amd نداره
amd در شرایط عادی کارت در همین حدود 400 دلار قیمت گذاری می کرد , دوستان amd دیدن با هر قیمتی قرار بدن مهم نیست و نتیجه اش همین قیمت عجیب 479 دلار
-----------
RX 6700XT با 2560 شیدر بهتر از 3060TI با 4864 کودا عمل کرده
4 سال پیش 1060 با 1280 کودا عملکردی مشابه rx 480 با 2304 شیدر داشت
این معجزه amd
--------------
در مورد rt / ml هم گفتم
انویدیا بیش از یک ده است روی ray tracing , هوش مصنوعی و machine learning کار می کنه , هیچ دکمه جادویی وجود نداره که AMD یک باره به سطح انویدیا برسه ,AMD هم باید سالها کار کنه و میلیارد ها دلار هزینه کنه و احتمالا 2023 به سطح قابل قبولی می رسه
گرامی میشه بپرسم 3 تا اخرین کارت گرافیکی که داشتید چی بوده ؟ و قصد دارید چه کارت گرافیکی بخرید برای این نسل ؟ (البته اگر هنوز نخریدید )

حقیقتش من خیلی دوست داشتم صبر کنم و از انویدیا نخرم چیزی تا نسل بعدی کارت های AMD توی ریتریسنگ برسه به انویدیا و البته یک راه اساسی هم موازی با DLSS پیدا کنه
و پرچمش را بالا ببرم ...
ولی خوب اونقدر عمر محدود هستش که آدم مجبور میشه محصول دشمن را هم بخره و نتونه از تیم مردمی AMD حمایت کنه !

work.jpg
 
آخرین ویرایش:

-Poormaz-

کاربر سایت
Oct 6, 2009
4,093
نام
پوریا
کوروش، برادر من، معجزه؟ اصلا منظور و قصد بدی از این حرفم ندارم ولی کاملا حس میکنم در یک دنیای موازی دیگه ای سیر میکنی. هیچ عیبی نداره اگه کسی در مورد یه سری از تکنولوژی ها چیزی ندونه. بعضی مواقع حس میکنم منظور پست ها رو متوجه نمیشی و همینطوری یه چیزی میگی. در کل اولین و آخرین باری بود که از این حرفا میزنم. موفق باشی.
 

K I 1 1 E R

ناظم انجمن
Feb 22, 2011
17,158
نام
∂αнмα
این چند ساله اگه معجزه ای اتفاق افتاده برا انویدیا بوده که برا اولین بار RT رو به صورت ریل تایم محقق کرده AMD الان تنها کاری که کرده تونسته تو زمینه Rasterisation خودش رو به انویدیا برسونه مهم نیست حالا چقدر کلاک خرج GPU هاش کرده اینم مثل تعداد هسته و کلاک CPU های خدا بیامرزش Athlon هیچ فاکتور معین و مشخصی واسه برتری AMD و تکنولوژیش نیست (حداقل واسه بخش گیمینگ). خروجی نهایی فقط مهم ـه که فعلا تو دو زمنیه (AI و RT) هنوز پشت سر انودیا هستش و با این پیشرفتی که انودیا تو این زمینه ها داشته AMD بعید تا دو سه ساله دیگه بتونه از پس کارتاش بر بیاد
 

Hamidreza

ناظم انجمن
Jun 3, 2008
3,605
نام
حمیدرضا
دیگه تو این ۷/۸ ماهه همه گیمرا و کاربرا تحقیقا و سبک سنگیناشونو کردن و به خوبی میدونن با توجه به بودجه ای که دارن کدوم کارت از پس نیازشون برمیاد . نکه نخوان یه سری از واقعیت هارو قبول کنن . تا جایی که عمر PC گیمریه من بیاد داره تو این ۱۵ سال اخیر همیشه Nvidia یکه تاز میدون بوده . از کرایسیس با 8800ultra بگیر تا تکنولوژی های ۲/۳ سال بعدش مربوط به physx که تو بازی mafia 2 سال ۲۰۱۰ ازش رونمایی شد و الان . خیلی اهل history گفتن نیستم . کاری ام به DLSS و ray tracing ندارم :D خواستم تجربه شخصی مو باهاتون درمیون بذارم . با جزیی ترین تغییر nvidia ینی resizable bar تو بازی Gears 5 با کارت 3070 ' فریم بازی از 114 به 128 رسید . اصن باورم نمیشه انقد افزایش اونم با یه آپدیت بایوس ساده مادربورد و کارت گرافیک ! واقعا باید بپذیریم nvidia فاصله شو با AMD خیلی خیلی زیاد کرده . عرایض بنده تمام :D
 
آخرین ویرایش:

کاربرانی که این قسمت را مشاهده می‌کنند

Top
رمز عبور خود را فراموش کرده اید؟
or ثبت‌نام سریع از طریق سرویس‌های زیر