شایعه جزئیات دقیق CPU ایکس باکس نسل بعدی Microsoft + مشخصات RAM و Graphic

doostanehsoft

کاربر سایت
ادعاهایی از مشخصات کامل از اعماق CPU نسل بعدی ایکس باکس توسط کارگاه سخت افزاری یعنی (VGLeaks) مطرح شده است که در ادامه به بررسی بیشتر موضوع می پردازیم.

818386672_1357022932.jpg


به گزارش سایت VGLeaks، کنسول Xbox720 از ترکیب دو ماژول که هر 4 هسته x64 از یک single thread 1.6 گیگاهرتز تشکیل شده، ساخته شده است.

او می گوید: "توسعه دهندگان آشنا با کارایی CPU با تلاش و تمرکز در ویژگی ها و طراحی ساختمان و اسکلت CPU می توانند آن را بهینه سازی کنند:"

cpu.jpg




"همچنین روند قدرت دهی و موازی سازی در این سخت افزار موجود می باشد. بنابراین یک استراتژی موثر و موفق در محاسبه multi-core (چند هسته ای) از هر چیز دیگری مهم تر است."

Durango از ایکس باکس بعدی خبر از بهره گیری از یک کارت گرافیک D3D11.x 800MHz و 8 گیگ رم DDR3 را می دهد.

طبق گزارش دیگری از دورانگو، این کنسول جدید قابلیت استفاده از 50GB دیسک Blu-ray و ذخیره داده ها روی یک هارد 500GB دارد.


هفته ی پیش سونی رسما از PlayStation 4 در نیویورک پرده برداری کرد؛ که قرار است از یک سی پی یوی 8 هسته ای x86-64 AMD با نام "Jaguar"، همچنین از 1.84 TFLOPS AMD GPU و 8 گیگ رم GDDR5 بهره گیری کند.

براساس خبری از CVG، مایکروسافت قصد دارد از پلتفورم ایکس باکس نسل بعدی در اواخر ماه آوریل رونمایی کند.


تراشه (Caches)

خلاصه ای از نام و نوع تراشه ها

[TABLE="class: grid, width: 500, align: center"]
[TR]
[TD]نام تراشه
[/TD]
[TD]قابلیت
[/TD]
[TD]راه ها
[/TD]
[TD]چیدمان سایز
[/TD]
[TD]اندازه خطی
[/TD]
[/TR]
[TR]
[TD]L1 I
[/TD]
[TD]فقط خواندنی (Read-Only)
[/TD]
[TD]2
[/TD]
[TD]256
[/TD]
[TD]64 بایت
[/TD]
[/TR]
[TR]
[TD]L1 D
[/TD]
[TD]اختصاص نویسی و قابلیت پشت نویسی
(Write-allocate, write-back)
[/TD]
[TD]8
[/TD]
[TD]64
[/TD]
[TD]64 بایت
[/TD]
[/TR]
[TR]
[TD]L2
[/TD]
[TD]اختصاص نویسی، قابلیت پشت نویسی و جامع
(Write-allocate, write-back, inclusive)
[/TD]
[TD]16
[/TD]
[TD]2048
[/TD]
[TD]64 بایت
[/TD]
[/TR]
[/TABLE]


[TABLE="class: grid, width: 500, align: center"]
[TR]
[TD]دسترسی به حافظه
[/TD]
[TD]چرخه ها (Cycles)
[/TD]
[TD]توضیحات تکمیلی (Notes)
[/TD]
[/TR]
[TR]
[TD]L1 hit
[/TD]
[TD]3
[/TD]
[TD]Required line در L1 هسته است
[/TD]
[/TR]
[TR]
[TD]L2 hit
[/TD]
[TD]17
[/TD]
[TD]Required line در ماژول L2 است
[/TD]
[/TR]
[TR]
[TD]ریموت L2 hit
ریموت L1 miss
[/TD]
[TD]100
[/TD]
[TD]Required line در ماژول L2 دیگر است
[/TD]
[/TR]
[TR]
[TD]ریموت L2 hit
ریموت L1 hit
[/TD]
[TD]120
[/TD]
[TD]Required line در ماژول L2 و L1 هسته
دیگر است
[/TD]
[/TR]
[TR]
[TD]موقعیت L2 missریموت L2 miss

[/TD]
[TD]144-160
[/TD]
[TD]Required line در هیچ تراشه ای ساکن
نیست، بارگزاری از طریق مموری
[/TD]
[/TR]
[/TABLE]


دستورالعمل معماری (منظور از معماری طراحی ساختمان یا اسکلت CPU می باشد)

x64 deprecates older instruction sets: x87, Intel MMX®, و AMD 3DNow!®. x64 از دستورالعمل های زیر پشتیبانی می کند:


  • SIMD/vector instructions: SSE up to SSE4.2 (including SSSE3 for packing and SSE4a), and AVX
  • F16C: half-precision float conversion
  • BMI: bit shifting and manipulation
  • AES+CLMULQDQ: cryptographic function support
  • XSAVE: extended processor state save
  • MOVBE: byte swapping/permutation
  • VEX prefixing: Permits use of 256-bit operands in support of AVX instructions
  • LOCK prefix: modifies selected integer instructions to be system-wide atomic



منبع خبری
 
ببخشید میتونم بدونم اطلاعات شما از کجاست استاد؟
نه آخه جوری اظهار نظر میکنید که انگار تازه از کرسی علمی هاروارد مرخص شدید استاد
...
؟؟؟
...

ببین 2 روز نبودم چه خبره اینجا

اگر چیزی بارت هست بیا وارد بحث شو همه استفاده کنیم - اگرم نیست غیض ات رو بیار پایین از حرف های دوستان استفاده کن

به شما چه ارتباطی داره اطلاعات من از کجاست اگه نقیض حرف های کسی رو داری میتونی بیا بحث کن نداری خودشیرینی چرا میکنی ؟؟

این بحث هم دوستمون یک اشتباه کلی کرد خواستم تذکر بدم - رفقا اشنایی پیدا کنن که ماژول های رم مقدار اینترفیس اشون ثابت 32bit هست و نمیشه واسشون 256 بیتی یا 512 بیتی تعریف کرد (دوستتون رفت وارد بحث پهناي باند و موضوعات حاشيه اي كه از بحث اصلي خارج شه - شما اين چيز هارو متوجه نميشي اما خودشون متوجه هستن).

دفعه بعد شکر بخورم بیام وارد بحث شما اساتید گرام بشم - همین هم به اسرار یکی از دوستان بود اگرنه اصلا وارد نميشدم نكترو تذكر بدم(واسه هفت جدم كافي بود)

درضمن دوست عزيز دفعه بعد كه خواستي وارد بحثي شي سعي كن توي اون زمينه حداقل يه سوالي كني يا نظر نقض اي بدي كه بفهميم چيزي بارت هست اومدي نظر دادي نه اينكه واسه مسخره بازي بياي بگي از كرسي اكسفورد اومدي .

ببخشید نمیخوام دخالت کنم ! ولی اطلاعات شما از روی کتاب هست ؟! شما چیکار داری که اطلاعت یکی از کجاست ؟ اطلاعات را از هر کجا میشه کسب کرد حالا چه از رو نت باشه مثل ویکی یا فرومهایی مثل BEYOND3D که اینجا خیلی ها کپی پیست میکنن اطلاعات اون فروم را ! حالا چه از دانشگاه هاروارد بخوای اطلاعات بدی ! بالاخره فرقی نداره کسی که اطلاعات داره و روی دانسته های خودش مطلب درست را اینجا مطرح میکنه !
پس جوری پست ندید که خودتون را بالا بکشید و دیگران زیر کنید . من شخص مهدی DieDie را بیشتر از همه شما ها میشناسم و میدونم که اطلاعاتش در چه حده ! ................
در مورد تند حرف زدن هم باید بگم حالا مهدی اومده یه کم با شما تند حرف زده چون بر میگرده به نوع پسته خودتون که طوری دارید پست میدید که باعث چنین گفتمانی میشه ! مثل همین پسه اخرتون ! مثل دوسته من دوسته من بعد اخرش متهم به اطلاعات ویکی میکنی !

من یه اشتباه كوچك رو تصصیح کردم - به اسرار يكي از دوستان البته - لم حرف زدنم اینجوری هست دوست من - اگر دوستتون از من ایراد میگرفت میگفتم اها که اینطور تصیحش میکردم - حالا میگم که من شکر خوردم به صاحت قدسی دوستتون ابهام وارد کردم
خوش باشيد
 
آخرین ویرایش:
[QUOTEترجمه یک فرد غیر متخصص: billiary stone باعث cholescvytitis میشه
ترجمه فرد متخصص: سنگ صفرا باعث ورم کبد میشه][/QUOTE]خدایی بدترین مثال ممکن رو آوردی
 
این شایعه جدید اصلا does not make sense اگه ماکروسافت توان گذاشتن یک سیلیکون 500 تا 600 MM^2 در کنسول خودش داره چرا بیاد 2 تا APU بزاره در حالی که میتونه یک GPU با 28 تا 32 CU و 32 تا ROP بزاره و یا روی سیلیکون سی پی یو بیشتر سرمایه گزاری کنه بدن اینکه بیاد کلی مموری کنترل جدید و رابط برای وصل کردن این 2 تا APU استفاده کنه.حالا اگر یک APU و با یک GPU جدا باشه باز یک چیزی .در مورد چیپ ری تریسینگ هم من بعید میدونم بیشتر فنبوی دریم هستش به نظرم اگه چیپ مخصوص ریتریسینگ تولید شده بود و امکانش بود تا الان انویدیا و اینتل و AMD دهن مارو باهاش سرویس میکردند.
حالا من در مورد سخت افزار اطلاعات زیادی ندارم نمیتونم نظر بدم. ایده چیپ Ray-Tracing هم با توجه به "Secret Sause" که بحثش داغ بود گفته شده به استناد به پتنت های موجود از طرف مهندسین سابق IBM که در حال حاظر تو بخش XBOX مشغول کار هستند. و همین طور صحبت های کارمند سابق مایکروسافت و ادیتور سایت Polygon که گفته بودن Xbox بعدی چیزهایی داره که PC های High-End بازار هم منابع و قابلیت اجراشون رو ندارند!!
قابلیت Ray-Tracing هم فک کنم انویدیا برای معماری Keplr نشون داده بود.
 
بحث داره لوث میشه برای همین این آخرین پستمه:

این بحث هم دوستمون یک اشتباه کلی کرد خواستم تذکر بدم - رفقا اشنایی پیدا کنن که ماژول های رم مقدار اینترفیس اشون ثابت 32bit هست و نمیشه واسشون 256 بیتی یا 512 بیتی تعریف کرد (دوستتون رفت وارد بحث پهناي باند و موضوعات حاشيه اي كه از بحث اصلي خارج شه - شما اين چيز هارو متوجه نميشي اما خودشون متوجه هستن).

Interface معنی فارسیش میشه رابط / خط اتصال
به محل اتصال لگن مستراح با چاه مستراح هم میگن Interface

Interface در دنیای سخت افزارهای کامپیوتر :
Hardware interfaces exist in computing systems between many of the components such as the various buses , storage devices , other I/O devices , etc.
رابطهای سخت افزاری در سیستمهای کامپیوتری در بین بسیاری از اجزای سازنده از جمله گذرگاههای مختلف , دستگاههای ذخیره سازی و سایر دستگاههای وردوی و خروجی وجود دارد.

دوست عزیز , برادر من , سالار , سرور , استاد , دیگه اصلا نمیدونم چی بگم!؟ شما اصلا پستهای تاپیک رو دنبال کردی؟ من توی پستم که شما نقل وقولش کردی دارم به وضوح در مورد bus width و Multi Channel و اینکه Interface یا به فارسی خط اتصال یا رابط رو میشه افزایش داد صحبت میکنم چون توش کلمه Interface به کار برده شده شما اومدی پست منو نقل و قول کردی داری در مورد تعداد Interface Memory ها روی GPU صحبت میکنی!!!

اینها پست دوتا از دوستان قبل از پست من بود:

بعد میدونی که همچین کلاکی برای یک حافظه DDR3 خیلی غیر محتمل هم بدورتر هست ؟

باز چون پست طولانيه نقل قول نميكنم
DieDie@
خوب شد اين مطلب رو گفتيد ....
حالا اين جا يه سوال پيش مي ياد كه ايا اصلا رم gddr3 با فركانس 2750 و پهنا باس 512 بيت وجود خارجي داره؟؟
چون بالاترين فركانس و بالاترين پهنا باس رو در رم هاي gddr3 تا كنون در كارت گرافيك gtx 285 استفاده شده كه اين كارت داراي رم gddr3 هست كه فركانسش 2400 و پهنا باسش 512 بيت ....ديگه اكثرا gddr3 ها فركانسشون پايين تر از 2000 ....وبرخلاف سخن شما كه فرموديد پهنا باس 512 بيت در gddr3 ها امري متداول بايد بگم اين طور نيست واكثرا پهنا باسشون 256 و 128 بيت .

این پست من در جواب دو پست قبلی:

چرا غیر محتمل هست؟ سال پیش Crosair و Team رم DDR3 با کلاک 3000Mhz ساختن:
....
تازه توجه داشته باشین که این رمها به صورت Multi-Channel Double/Triple/Quad هم میتونن با هم کار کنن در ضمن اینها برای PC طراحی شدن برای کنسول 100% کاستوم میشن و اگر GDDR3 باشن به احتمال زیاد به اینترفیس های با Bus Width بالاتر مجهز میشن ....
سال 2009 کارت GTX285 با GDDR3 کلاک 2484 کار میکرده الان که 2013 هستیم خیلی راحت میشه GDDR3 با کلاک و اینترفیس های بالاتر هم تولید کرد مخصوصا که هدف طراحی کنسول باشه.

من دیگه نمیدونم تو دهات ما Interface رابط معنی میده منظور منم از Interface اینجا رابط بین پردازنده و مموری صرف نظر از محل قرار گیریش هست.
حتی پست بعد دوباره اومدم با ارجاع به این منبع:

What is the difference between gddr and ddr? | Solidly Stated

و این فرمول

Data Bus Width = total channels X bits of data per channel
پهنای گذرگاه داده ها=تعداد کانالها X بیتهای داده ها در هر کانال

توضیح دادم که چرا تو پست قبلیم در مورد Bus Width صحبت کردم

خلاصه وقتی از کلمه Interface استفاده میشه شما اول ببین موضوع چیه بحث از کجا شروع شد شما دیدی من بیام مستقیم در مورد Interface روی چیپ یا Inteface روی GPU صحبت کنم توی پست قبلمم به شما گفتم وقتی داری پست یکی رو نقل و قول میکنی و جواب میدی اونم با نگاه عاقل اندر سفیه! حداقل یا کامل نقل و قول کن یا قبلشم بخون به هر حال اگر بنده بی سواد بودم و از واژه Interface در جای نامناسب استفاده کردم شما به بزرگواری خودتون ببخشید استاد بنده همه پستهام رو ویرایش میکنم به جای واژه غریب و بیگانه Interface مینویسم رابط فقط امیدوارم ایندفعه با سیم رابط اشتباه گرفته نشه!! خوبه؟
 
بحث داره لوث میشه برای همین این آخرین پستمه:
Interface معنی فارسیش میشه رابط / خط اتصال
به محل اتصال لگن مستراح با چاه مستراح هم میگن Interface
Interface در دنیای سخت افزارهای کامپیوتر :
رابطهای سخت افزاری در سیستمهای کامپیوتری در بین بسیاری از اجزای سازنده از جمله گذرگاههای مختلف , دستگاههای ذخیره سازی و سایر دستگاههای وردوی و خروجی وجود دارد.
دوست عزیز , برادر من , سالار , سرور , استاد , دیگه اصلا نمیدونم چی بگم!؟ شما اصلا پستهای تاپیک رو دنبال کردی؟ من توی پستم که شما نقل وقولش کردی دارم به وضوح در مورد bus width و Multi Channel و اینکه Interface یا به فارسی خط اتصال یا رابط رو میشه افزایش داد صحبت میکنم چون توش کلمه Interface به کار برده شده شما اومدی پست منو نقل و قول کردی داری در مورد تعداد Interface Memory ها روی GPU صحبت میکنی!!!
اینها پست دوتا از دوستان قبل از پست من بود
این پست من در جواب دو پست قبلی
من دیگه نمیدونم تو دهات ما Interface رابط معنی میده منظور منم از Interface اینجا رابط بین پردازنده و مموری صرف نظر از محل قرار گیریش هست.
حتی پست بعد دوباره اومدم با ارجاع به این منبع:
What is the difference between gddr and ddr? | Solidly State
و این فرمول
Data Bus Width = total channels X bits of data per channel
پهنای گذرگاه داده ها=تعداد کانالها X بیتهای داده ها در هر کانال
توضیح دادم که چرا تو پست قبلیم در مورد Bus Width صحبت کردم
خلاصه وقتی از کلمه Interface استفاده میشه شما اول ببین موضوع چیه بحث از کجا شروع شد شما دیدی من بیام مستقیم در مورد Interface روی چیپ یا Inteface روی GPU صحبت کنم توی پست قبلمم به شما گفتم وقتی داری پست یکی رو نقل و قول میکنی و جواب میدی اونم با نگاه عاقل اندر سفیه! حداقل یا کامل نقل و قول کن یا قبلشم بخون به هر حال اگر بنده بی سواد بودم و از واژه Interface در جای نامناسب استفاده کردم شما به بزرگواری خودتون ببخشید استاد بنده همه پستهام رو ویرایش میکنم به جای واژه غریب و بیگانه Interface مینویسم رابط فقط امیدوارم ایندفعه با سیم رابط اشتباه گرفته نشه!! خوبه؟

DIE DIE عزيز شما چرا بحث رو باز به حاشيه ميكشيد و با كلمات بازي ميكنيد

از همون اول هم هييچ بحثي در مورد BUS Width نبود - شما ارجاع دادي. من يك ان حس كردم شما اشتباه برداشت كردي - اگر هم ميفرماييد از اول اينو ميدونستيد همون ابتدا ميگفتيد ين مورد رو ميدونستم نه اينكه با ٦٠ تا تهمت كه من فلانم و ميام توي پست هاي شما عرض اندام كنم و... ..

الان با بيخودي پيچيده كردن بحث مشخصا ٩٩٪ درصد كاربراي اينجا متوجه اصل بحث نميشن و با بازي كلمات كسي متوجه اصل بحث نميشه - (اينجا فروم سخت افزاري نيست اگر بود خيلي از دوستان همون ابتدا تصصيح ميكردن)

خودتونم ميدونيد كه اين بحث خيلي خيلي پيش پا افتادست اما نياز به يك دقت كوچيك داشت

اومدم اين بخش رو تصصيح كنم : (اينجا)

سال 2009 کارت GTX285 با GDDR3 کلاک 2484 کار میکرده الان که 2013 هستیم خیلی راحت میشه GDDR3 با کلاک و اینترفیس های بالاتر هم تولید کرد مخصوصا که هدف طراحی کنسول باشه.

بحث من اين بود كه GDDR3 هايي با اينترفيس بيشتر يا كمتر از 32bit امكان وجود ندارن و اون APU يا GPU و تعداد Memory interface هاشون هست كه تعيين كنندست - وسلام

البته الان ورژن جديد ويرايش شما كاملا صحيح هست: (من اين بخشو در گذشته نقل قول نكرده بودم)

پهنای باند PS4 اونطور که اعلام شده 176GB/s هست و با توجه به شباهتش با سری 7970 یا 7950 اگر رابط حافظه PS4 GPU = 384bit باشه کلاک حافظه تو PS4 باید 3666Mhz باشه و اگر رابط حافظه 256 بیتی باشه 5500Mhz که هر دو مورد محتمله.
بنابراین حافظه PS4 از نظر پهنای باند با یک حافظه DDR3 با کلاک 2750Mhz ورابط 512 بیتی که رابط نسبتا رایجی برای DDR3 هست برابری میکنه

خوب الان اين درست شد دوست من

اين همه بحث رو به حاشيه كشوندن نداشت - در ضمن خودتون هم فرموديد اين بحث بشدت پيش پا افتادست فقط دقت در يك مورد ميخواست كه نشده بود.

منم به اسرار يكي از دوستان اينو گوشزد كردم - موفق باشي
 
آخرین ویرایش:
اینا اصطلاح نیست و کلماتیه که ترجمش تو دیکشنری معمولی(غیر تخصصی) پیدا نمیشه و کسی هم که تخصص کافی نداره نمیتونه منظور متن رو بفهمه و ترجمه نامفهمومی میکنه
ترجمه یک فرد غیر متخصص: billiary stone باعث cholescvytitis میشه
ترجمه فرد متخصص: سنگ صفرا باعث ورم کبد میشه

خب این بحث فرم کاملا مشخصه که کسی که میگه چشم انسان بالای 30 فرم نمیتونه تشخیص بده چه کارست

من داشتم پست diedie رو میخوندم و جالب بود ولی یکدفعه اعتماد بنفس یه نفر وسط تاپیک منفجر شد وگرنه من کاری ندارم که diedie اطلاعاتش رو از کجا اورده

خوب یه چند تا نکته گفتی که بسعی میکنم تا جایی که میتونم منطقی جوابت رو بدم : اول اینکه ایشون از اصطلاحات زیادی استفاده میکنن . من خودم تو تمام متون فارسی به جای حافظه میگم : RAM . حالا اینکه ما نمیفهمیم از سواد پایینمونه . کاری هم ندارم میزان اصطلاحاتش زیاده یا کمه .
--------------------------------------------------

در مورد فریم صحبت کردی : فریمی که اون کاربر تو یه تایپیک دیگه گفته بود و میزان بالای لایک هایی که دریافت کرده خودش گواهی بر درست بودن حرف ایشون داره . من اول از همه پستش رو نقل و قول میکنم :

طبق محاسبات توماس اديسون ( خداوند بيامرزتش) حداقل زمان پاسخ گويي مغذ به ثبت يك تصوير جديد حدود 21.7 ميلي ثانيه هست از اونجايي كه (F=1/T) يعني فركانس معكوس نرخ زماني هست 1/0.0217 ميشه همون 46 فريم در ثانيه FPS كه هر FPS كمتر از اين موجبات اذيت شدن چشم در دراز مدت براي درك روان بودن تصوير ميشه.

انسان ها حدودا بعد از 20 fps رو به صورت تصاوير بدون قطع ميبينن و تا رسيدن به 46 نرمي تصاوير رو ميتونن تميز بدن - بعد از 46 fps تا 300fps مغذ انسان تقريبا در يك سطح نرمي تصوير رو حس ميكنه اما اصولا مغز تا 300 فريم هم ميتونه درك كنه اما براش با 46 تفاوت خاصي نداره

خلاصه نرخ استاندارد 50-60 fps استاندارد هستن و اعداد بالاتر كه فشار الكي روي سخت افزار ميارن براي بازار گرمي هست - من خودم ترجيح ميدم بازي روي 30fps باشه اما كيفيتش در حد AVATAR باشه - مردن اين كارو انجام بدن :دي

لینک حرف این کابر :


اون قسمتی که مشکل داشتی رو پر رنگ کردم تا در موردش توضیح بدم :

اول از همه میخوام توضیحی در باره فریم بدم : برای درک فریم به عکسای زیر به دقت نگاه کن :

u5583_1.jpg


توضیح : عکسهای بالا مربوط به ترکیدن یه بادکنک با کاتر . این عکسها با یک دوربین با سرعت 30 فریم در ثانیه گرفته شده .
عکس 16 : لحظه برخورد کاتر به بادکنک . چشم انسان دقیقا ترکیدن بادکنک رو مثل 3 تصویر بالا میبینه . یعنی برخورد ، انفجار و نابودی بادکنک .
عگس 17: بادکنک ترکیده . به خاطر سرعت بالای برخورد ، چشم قادر به شناسایی زمان برخورد و ریز ترین اتفاقاتش نیست . پس ترکیدن بادکنک رو مثل عکس 17 میبینه .
عکس 18 : دست اون شخص ، بعد از اینکه کاتر رو به بادکنک میزنه ، مجددا در حال بازگشتن به سمت بالاست .

تحلیل : یعنی ضربه رو زده ، بادکنک ترکیده ، و تو عکی 17 دستش داره برمیگرده به سمت بالا . تو واقعیت هم ما ترکیدن بادکنک توسط شخص دیگیری رو اینطوری میبینیم . یعنی یه سری تصاویر رو نمیتونیم ببینیم یا به عبارتی بهتر فریم هایی جامیمونن .
اگه دقت کرده باشی گفتم عکس بالا به صورت 30 فریم ظبط شده . ( تو ذهنت این صحنه روتصور کن ) . پس تصویر بدون هیچ ایرادی پخش میشه و بیننده احساس کندی یا پرش تصاویر رو نداره .

اما نکته مهم اینجاست که بین تصلویر 17 و 17 و 17 و 18 هم بیش از 500 فریم وجود داره که ما با چشم عادی نمیتونیم ببینیم . این یعنی اینکه میانگین سرعت چشم انسان 30 فریم بر ثانیه هست . البته مغز انسان توانايي تفكيك 300fps رو در حالت panic situation يا شرايط خطر درصورت صلاح ديد مغز براي تصميم گيري داره كه بحثش مفصل هست .

k6716_2.jpg


توضیح : حاا میخوایم ببینیم بین فریم 16 و 17 چه اتفاقاتی افتاده . چون چشم ما بالافاصله بعد از اصابت کاتر به بادکنک ، تصویر 17 رو میبینه .


e8478_3.jpg


توضیح : به عکس دقت کن . این تصویر ، با سرعتی بیش از 1000 فریم بر ثانیه ظبط شده . یعنی اتفاقات بین عکس 16 و 17 رو داره نشون میده .

لحظه برخورد کاتر و انفجار لایه اول بادکنک ( 2 یا II ) . در واقع 2 بادکنک داخل هم بودن . پس زمانی که بادکنک اول ضربه میخوره میشه شکل ( II ) و در نهایت کاتر س از بریدن لایه اول به لایه دوم ( I ) میرسه . این عکس رو چشم ما نمیتونه در حالت ادی ببینه .

k6826_4.jpg



توضیح : برای درک و فهم بیشتر قضیه فریم ، 2 تا تصویر رو کنار هم گذاشتم تا متوجه بشی . چشم انسان تصویر شماره 1 هست و سرعتی بیشتر از 60 فریم هم تصویرشماره 2 هست . اگر تصویر شماره 1 پخش بشه ، به دلیل سریع بودن شما فقط یه انفجار خالی و ترکیدن بادکنک رو میبینی و اگر تصویر 2 پخش بشه شما علاوه بر ترکیدن بادکنک ، لحظه لحظه تمام اتفاقات که به ترکیدن بادکنک ختم میشه رو هم میتونی ببینی .

=============================================

حالا میریم سراغ توضیح پست اون کاربر : یه بار دیگه نقل و قول میکنم جایی رو که شما مشکل داشتی :

انسان هاحدودا بعد از 20 fps رو به صورت تصاوير بدون قطع ميبينن وتا رسيدن به 46 نرمي تصاوير رو ميتونن تميز ( همون تشخصی ) بدن - بعد از 46 fps تا 300fps مغذ انسان تقريبا در يك سطح نرمي تصوير رو حس ميكنه اما اصولا مغز تا 300 فريم هم ميتونه درك كنه اما براش با 46 تفاوت خاصي نداره

جاهایی رو که پررنگ کردم با دقت و اروم بخون .

اولا : هیچ جای متن چنین جمله ای رو نگفته که شما داری از این کاربر نقل و قول میکنی : دوما برای انکه بتونی فریم رو تیکه تیکه ببینی میتونی فرکانس رم رو بیاری پایین و یه بازی سنگین اجرا کنی ، با نرم افزار FRAP میزان فریم رو شناسایی کنی و قطعی فریم رو تو فریم های زیر 20 ببینی . بعد میتونی با بالاتر بردن فرکانس تفاوت تغییر محسوس فریم رو ببینی . اگر هم CALL OF باز باشی باید نرمی انیمیشن های این بازی در مقابل BF رو حس کرده باشی . همینطور بازی GT یا FORZA که 60 فریم هستن . درواقع بین 30 و 60 تفاوت خیلی زیادی از نظردیداری اصلا نمشه دید و یه چیز حس کردنیه . چون سرعت چشم انسان طبق عمسای بالا 30 فریم برثانیه در حالت استاندارد هست و تا 60 رو هم میتونه بپذیره . بیشتر رو هم میتونه ببینه ، اما مغز نمیتونه ثاپورت کنه و در واقع نورون های مغز محدود هستن و چشم توانایی ( پهنای باند یا خط لوله کمی ) برای ارسال تصاویر همزمان به مغز رو داره .

اما در عوض کیفیت چشم انسان چیزی در حدود 165 مگاپیکسه . چیزی که هنوز بازیها بهش نرسیدن . این کیفیت بینظیره و با کیفیت ترین دوربین جهان تا جایی که من اطلاعات دارم ( فکر کنم 50 ) مگاپیکسل باشه . اما درعوض سخت افزار ها سرعت فریم ( یا اهسته سازی ) بسیار بالایی دارن . چیزی که چشم انسان فاقد اون هست .

چشم انسان بالای 30 فرم نمیتونه تشخیص بده

دوما: طبق عکسهای بالا وطبق اصول علم پزشکی چشم انسان نرمی تصاویر رو در حد 60 فریم میتونه درک و به مغز متقل کنه و میزانی بالاتر از اون رو اصلا نمیتونه تشخیص بده . گنجایش نورون های مغز انسان قابلیت برای پاسخ گویی به تصاویر 150 میلی ثانیه هست . یعنی چشم یکسری خط لوله داره ( به زبون خیلی ساده و قابل فهم !!! ) به نام نورون که تصاویر رو به مغز میفرسته . هر کدوم از این خط لوله ها به یه نورون وصله . خوب هر نرون مغزی هم 150 میلی ثانیه ( طبق علم پزشکی ) طول میکشه تا به مغز جواب بده که در این صورت میزان نرخ فریم چشم انسان میشد 6 !!!

اما چون چشم انسان دارای نورون های بیشماری هست ، چشم انسان تا 26 میلی ثانیه هم توانایی تشخصی داره . اما عدد 6 سطر بالا از فرمول زیر بدست اومده : البته مغز ميتونه اطلاعاتي از 21.7 ميلي ثانيه تا 3.3 ميلي ثانيه هم تفكيك كنه اما براي تشخيص نهايت نرمي تصاوير 21.7 كافي هست .

F=1/ T :" ف " میزان فرکانس و " ت " زمان هست و اگه عدد F=1/0.150 رو بدست بیاری به میزان فریم ( اصطلاحا ) چشم انسان میرسی . ازطریق همین فرمول هم میتونی میزان زمانی که برای تولید هر فریم از زمان نیاز هست رو بدست بیاری .

مثلا : T=1/60=0.0166 که میشه 16.6 ms !! که به زبون ساده میشه :

" يعني هر ١٦.٦ ميلي ثانيه يك تصوير جديد توليد ميشه و در يك ثانيه ميشه ٦٠ تا تصوير جديد ، پس اگر زمان توليد هر فريم ١٦.٦ باشه در هر ثانيه ٦٠ فريم داريم " .


نکته : توضیحات نرون مغز ربطی به فرمول بالانداره : اعداد فرمول بالا از طریق فرمول فرکانس بدست اومده .

توضیح ساده تر : مثلا شما میخواید میزان تولید 60 فریم در ثانیه رو بدونید . خوب 60 یا هر عدد دیگه رو تقسیم بر 1 میکنید و بعدش از معکوس کردن ( یعنی 1 تقسیم بر اون عدد :d والا ) ، طبق فرمول فرکانس جوابش رو بدست میارید .


اینم منبع برای حرفم : Frame rate - Wikipedia, the free encyclopedia


کاری به حرفای این و اون ندارم . اینجا هم با همه دوستم . فقط خواستم تا جایی که میتونم و فهم و اطلاعاتم بهم اجازهمیده ، فریم رو برات توضیح بدم که بیخودی به یه کاربر دیگه تهمت نزنی . گفتم پست اون کاربر ( فقط پسش ) 45 تا لایک گرفته ک خلی زیاده ! به اندازه یه تایپی خبری !! این خودش نشون میده این پست لا اقل مذخرف و اشتباه نبوده . حالا شاید تو اعداد چند تایی بالا و پایین باشه . اما کلیت پست درسته .






 
آخرین ویرایش:
حالا من در مورد سخت افزار اطلاعات زیادی ندارم نمیتونم نظر بدم. ایده چیپ Ray-Tracing هم با توجه به "Secret Sause" که بحثش داغ بود گفته شده به استناد به پتنت های موجود از طرف مهندسین سابق IBM که در حال حاظر تو بخش XBOX مشغول کار هستند. و همین طور صحبت های کارمند سابق مایکروسافت و ادیتور سایت Polygon که گفته بودن Xbox بعدی چیزهایی داره که PC های High-End بازار هم منابع و قابلیت اجراشون رو ندارند!!
قابلیت Ray-Tracing هم فک کنم انویدیا برای معماری Keplr نشون داده بود.
تا اونجائی که من میدونم دموری ری تریسنگ نودیا روی کپلر نرم فزاری بوده به اضافه Brute force حالا اگه کسی اطلاعات دیگه داره بگه خیلی خوب میشه. نودیا و ATI هر دو از زمان کارتهایHD500 و GTX400 قابلیت ری تریسینگ رو تبلیغ میکنن ولی الان هم قدرت پردازشون زیاد تر شده و هم الگوریتمشون پیشرفت کرده
edit: در کل به نظر من هنوز Rasterization برای بازی ها بهتره حتی اگه در چند سال آینده اتفاقات جدید بیوفته و یا به قول خودت ماکروسافت اختراع جدید کرده باشه
 
آخرین ویرایش:
بحث داره لوث میشه برای همین این آخرین پستمه:



Interface معنی فارسیش میشه رابط / خط اتصال
به محل اتصال لگن مستراح با چاه مستراح هم میگن Interface

Interface در دنیای سخت افزارهای کامپیوتر :

رابطهای سخت افزاری در سیستمهای کامپیوتری در بین بسیاری از اجزای سازنده از جمله گذرگاههای مختلف , دستگاههای ذخیره سازی و سایر دستگاههای وردوی و خروجی وجود دارد.

دوست عزیز , برادر من , سالار , سرور , استاد , دیگه اصلا نمیدونم چی بگم!؟ شما اصلا پستهای تاپیک رو دنبال کردی؟ من توی پستم که شما نقل وقولش کردی دارم به وضوح در مورد bus width و Multi Channel و اینکه Interface یا به فارسی خط اتصال یا رابط رو میشه افزایش داد صحبت میکنم چون توش کلمه Interface به کار برده شده شما اومدی پست منو نقل و قول کردی داری در مورد تعداد Interface Memory ها روی GPU صحبت میکنی!!!

اینها پست دوتا از دوستان قبل از پست من بود:





این پست من در جواب دو پست قبلی:



من دیگه نمیدونم تو دهات ما Interface رابط معنی میده منظور منم از Interface اینجا رابط بین پردازنده و مموری صرف نظر از محل قرار گیریش هست.
حتی پست بعد دوباره اومدم با ارجاع به این منبع:

What is the difference between gddr and ddr? | Solidly Stated

و این فرمول

Data Bus Width = total channels X bits of data per channel
پهنای گذرگاه داده ها=تعداد کانالها X بیتهای داده ها در هر کانال

توضیح دادم که چرا تو پست قبلیم در مورد Bus Width صحبت کردم

خلاصه وقتی از کلمه Interface استفاده میشه شما اول ببین موضوع چیه بحث از کجا شروع شد شما دیدی من بیام مستقیم در مورد Interface روی چیپ یا Inteface روی GPU صحبت کنم توی پست قبلمم به شما گفتم وقتی داری پست یکی رو نقل و قول میکنی و جواب میدی اونم با نگاه عاقل اندر سفیه! حداقل یا کامل نقل و قول کن یا قبلشم بخون به هر حال اگر بنده بی سواد بودم و از واژه Interface در جای نامناسب استفاده کردم شما به بزرگواری خودتون ببخشید استاد بنده همه پستهام رو ویرایش میکنم به جای واژه غریب و بیگانه Interface مینویسم رابط فقط امیدوارم ایندفعه با سیم رابط اشتباه گرفته نشه!! خوبه؟
عزیز من هنوز جوابم رو نگرفتم ها؟؟
خواستم یه بار دیگه پستم رو نقل کنم شاید ندیده باشید.
ببین الان شما می گید ddr به صرفه تره؟ یا زیاد فرقی نداره؟؟؟
پس
این
چیه؟
باور کن برام سواله.آخه شما می گی زیاد فرقی ندارند ولی خب مثلا این سند یه چیز دیگه می گه به نظرم..
منبعم عکساش رو نمی شه آورد ولی خب کاری نداره یه سر بزن ببین چه جوری...
 
عزیز من هنوز جوابم رو نگرفتم ها؟؟
خواستم یه بار دیگه پستم رو نقل کنم شاید ندیده باشید.

منبعم عکساش رو نمی شه آورد ولی خب کاری نداره یه سر بزن ببین چه جوری...

ببخشید پستتو الان دیدم.

ببین الان شما می گید ddr به صرفه تره؟ یا زیاد فرقی نداره؟؟؟
پس این چیه؟
باور کن برام سواله.آخه شما می گی زیاد فرقی ندارند ولی خب مثلا این سند یه چیز دیگه می گه به نظرم..:)

احتمالا شما اصلا موضوع بحث رو متوجه نشدین
اول از همه DDR یک رم برای استفاده در System main memory هست یعنی کاربردش برای استفاده به عنوان حافظه اصلی سیستم و کار با CPU هست اینجا بحث سر VRAM ها هست رمهایی که برای کارکردن با GPU طراحی شدن و بهشون GDDR میگن البته همینجا این نکته رو داخل پرانتز داشته باش که از GDDR3 به عنوان سیستم مموری یا همون حافظه اصلی سیستم قبلا تو ماشینهای بازی استفاده شده نمونش Xbox360 یا Wii و DDR های معمولی هم در کارت گرافیک های ارزون قیمت استفاده شدن!
نحوه نامگذاری GGDR ها با DDR ها متفاوت هست مثلا GDDR3 قبل از DDR3 ساخته شده و تکنولوژیش مبنی بر DDR2 هست (4n prefetch buffer) ولی GDDR5 مبتنی بر DDR3 هست (8n prefetch buffer).
اگر کسی از بحثهای قبلی خواسته این برداشت رو بکنه که منظور من این هست که GDDR3 بهتر از GDDR5 هست کاملا اشتباه برداشت کرده....
آیا GDDR5 بهتر از GDDR3 هست؟
بله 100% بدون هیچ شکی به خاطر:

1. مصرف برق کمتر
2. افزایش ساده تر در فرکانس مموری

به خاطر اینکه به زبون ساده Effective Clock در GDDR5 مساوی هست با کلاک مموری بانکها ضرب در 8 ولی Effective Clock در GDDR3 مساوی هست با کلاک مموری بانکها ضرب در 4 .

اما آیا GDDR3 این پتانسیل رو داره که بشه باهاش پهنای باندی برابر با GDDR5 گرفت؟
جواب مثبت هست و این مسئله کاملا بستگی به هدف و خواسته طراح اون کارت یا سخت افزار داره ...
به چند روش میشه اینکارو انجام داد:
1.بالا بردن کلاک یا فرکانس
2.بالا بردن پهنای باند رابط

ولی تاثیر پهنای باند در Performance کلی سیستم چقدر هست؟

داخل پست قبلیم (پست شماره 56) تو همین تاپیک مفصل به این موضوع اشاره کردم :

http://forum.bazicenter.com/thread75001/page4/#post2507210

اما توی اون لینکی هم که شما دادین دو تا کارت گرافیک GT440 با هسته با معماری یکسان به علاوه کلاک یکسان به علاوه رابطهای مموری یکسان با دو نوع حافظه مختلف با هم مقایسه شدن:

نکته مهم : حافظه کارت اول از نوع DDR3 و کارت دوم از نوع GDDR5 هست توجه کنید که حافظه کارت نوع اول GDDR نیست یعنی اصلا VRAM نیست.

fnaqfuwqx55p3wleiif5.jpg


کارتی که GDDR5 داره به واسطه پهنای باند بالایی که این حافظه در اخیتارش گذاشته به صورت تئوریک میتونه 51.2GB داده رو در فاصله زمانی 1 ثانیه انتقال بده! و کارتی که DDR3 داره مقدار 28.8GB داده رو در مدت 1 ثانیه انتقال میده.
یعنی GDDR5 در اینجا 87.5 درصد پهنای باند و 100 درصد فرکانس بالاتری داره ولی تفاوت در دنیای واقعی داخل لینکی که شما قرار دادین به طور متوسط در حدود 7 درصد هست:

1afhbr97o1t9ksa4ml3.jpg



9 تا 13 درصد

oaus1ori4y30zgb8qk48.jpg


8 تا 11 درصد

y3n6nwzii15qt9woyd.jpg


2 تا 3 درصد

tosqf5c3y3vom060a8l5.jpg


5 تا 6 درصد

25p8gp4f2w6rbywh7ne.jpg


6 درصد

اما یک نکته مهم اینجا ممکنه به ذهن برسه مقدار حافظه کارت GDDR5 نصف DDR3 هست (1GB vs 512MB) پس تاثیر مقدار حافظه بر فریم ریت چقدر هست؟

الاوه بر این پست مقایسه دو کارت 6950 یکی با 2GB GDDR5 و اون یکی با 1GB GDDR5 تاثیر مقدار حافظه رو بر فریم ریت نشون میده:

u6z39bc2vgs2v49otn7x.jpg


میبینید که تاثیر افزایش مقدار حافظه بر فریم ریت جزئی هست مقدار حافظه کارت 2 گیگابایتی دو برابر یا به عبارتی 100% بیشتر از کارت 1 گیگابایتی هست ولی تاثیر این مقدار حافظه روی فریم ریت به طور متوسط 1% بوده!
چرا؟
بالا بودن مقدار حافظه عمده ترین مزیتش این هست که کمک میکنه تکسچرهای با رزولوشن بالاتر روی حافظه جا بگیرن و برای رندر قابل دسترس باشن ولی بار گذاشتن تکسچرها فقط یک بخش قضیه هست نکته مهمتر این هست که آیا پردازنده گرافیکی قدرت پردازش و هندل کردن اون تکسچرها رو تو محیط بازی داره؟
شاید شما کارتی داشته باشین که مقدار حافظش طوری باشه که بتونه تکسچرهای فوق العاده با کیفیت رو که حجم خیلی بالایی هم دارن روی حافظه بار گذاری کنه ولی این قابلیت اگر پردازنده شما توانایی یا تایم کافی برای پردازش اون تکسچرها پیدا نکنه بی ارزش میشه.
پس مقدار رم باید متناسب با قدرت پردازشگر گرافیکی انتخاب بشه البته این مسئله در بین بازیهای مختلف میتونه متفاوت باشه رم بالاتر تو بعضی شاخصه های گرافیکی مثل Draw Distance بهتر و یا جریان بارگذاری داده ها (Data streaming) که باعث LOD یا ظاهر و غیب شدن اشیاء دور و نزدیک میشه یا سرعت لود بازیها و یا برای استفاده در رزولوشنهای بالا در تصاویر دو بعدی (که نیاز به قدرت پردازش بالا ندارن) موثر هست ولی تاثیرش روی فریم ریت بازی تا زمانیکه پردازنده به اندازه کافی قدرت نداشته باشه جزئی هست.

خیلی ممنون بابت توضیحات خیلی خوبتون.ولی خب یه نکته ای هست که من هنوز یکم روش بحث دارم.اونم جمله ای هست که در بالای سایت نوشته.یعنی رم xbox بعدی هم از نوع ddr3 عنوان شده نه gddr3.پس این نکته رو هم باید در نظر گرفت.

خوب اون بحث دیگه شایعه هست دوست عزیز ولی این نکته رو در نظر داشته باشید که GDDR5 در واقع همون DDR3 کاستوم شده برای کار با GPU هست و در مبحث رابطهای داده بر روی چیپ (Data Interface) یکی هستن (هر دو معماری 8n prefetch دارن) ولی خوب DDR3 ها به صورت 8 کاناله یا Bus width 512 bit تا این لحظه هنوز تو هیچ سخت افزاری به کار گرفته نشدن به عبارتی هنوز CPU یا چیپی ساخته نشده تا به صورت 8 کاناله اونها رو موازی کنن ولی دلیل نمیشه در اینده ساخته نشه! (البته سواد من در حدی نیست که اجازه داشته باشم بگم قطعا میشه یا نمیشه چون به محدودیتهاش واقف نیستم) ولی GDDR3 رو میدونم با رابطهای 512 بیتی بدون مشکل کار کرده نمونش کارتهای GTX280

مهدی جان ممنون از توضیحات :

فقط یه سوال:
میتونی ساده و درست توضیح بدی ممومری بانک چیه ؟ کارش چیه ؟ کجای رم قرار داره ؟ چون تا حالا چنین کلمه ای رو نشنیده بودم .
yahoo_4.gif

n2u2c6qeug4lts85828p.jpg


مموری بانک تو داینامیک رمها مجموعه ای از چند ردیف و ستون از واحدهای ذخیره سازی هستن که تو سراسر قسمت ram به صورت آرایه های 4 تایی پخش شدن همه رمها تقریبا از این نظر یکسان هستن و تفاوت رمها بیشتر روی Data Interface اونها هست.
حافظه های داینامیک چون خازنی هستن هر 1 میلی ثانیه یکبار باید رفرش بشن , داده ها موقع رفرش شدن از دسترس خارج میشن برای همین حافظه هاي sdram تولید شدن كه مثل حافظه هاي dram از خازن ساخته شدن ولي داده ها روی اونها به دو بانك جداگونه تقسيم شده كه اين امكان را به CPU/GPU مي ده تا زمان بازنويسي یک بانک بتونه از بانک ديگه استفاده كنه و اين باعث شده تا سرعت كمی بهبود پیدا کنه ولی هنوز فاصله زیادی با استاتیک رمها دارن اصلا رفرش نمیشن.
 
آخرین ویرایش:
مهدی جان ممنون از توضیحات :

فقط یه سوال:
میتونی ساده و درست توضیح بدی ممومری بانک چیه ؟ کارش چیه ؟ کجای رم قرار داره ؟ چون تا حالا چنین کلمه ای رو نشنیده بودم . :d
 
اما توی اون لینکی هم که شما دادین دو تا کارت گرافیک GT440 با هسته با معماری یکسان به علاوه کلاک یکسان به علاوه رابطهای مموری یکسان با دو نوع حافظه مختلف با هم مقایسه شدن:

نکته مهم : حافظه کارت اول از نوع DDR3 و کارت دوم از نوع GDDR5 هست توجه کنید که حافظه کارت نوع اول GDDR نیست یعنی اصلا VRAM نیست.
خیلی ممنون بابت توضیحات خیلی خوبتون.ولی خب یه نکته ای هست که من هنوز یکم روش بحث دارم.اونم جمله ای هست که در بالای سایت نوشته.یعنی رم xbox بعدی هم از نوع ddr3 عنوان شده نه gddr3.پس این نکته رو هم باید در نظر گرفت.
 
جناب DieDie مقایساتت اشکالاتی داره .
نمونش برای مقدار رم باید بازی هایی که جزییات زیادی دارند و مقدار رم زیادی بکار میگیرند بررسی بشن و روی جزییات بالا ، مثل بازی های open world یا بازی های که فواصل زیادی رو رندر میکنن . کلا بازی هایی که آبجکت و موارد زیادی برای رندر داشته باشن ، توشون مقدار رم اهمیت داره .
شما نمیتونی با این مقایسه این اهمیت رو ناچیز و کوچیک در نظر بگیری .
 

کاربرانی که این گفتگو را مشاهده می‌کنند

تبلیغات متنی

Top
رمز عبور خود را فراموش کرده اید؟
اگر میخواهی عضوی از بازی سنتر باشی همین حالا ثبت نام کن
or