لطفا به نکات زیر در هنگام خرید دانلود فایل پاورپوینت قسمت او ل ایده های اصلی توجه فرمایید.

1-در این مطلب، متن اسلاید های اولیه دانلود فایل پاورپوینت قسمت او ل ایده های اصلی قرار داده شده است 2-به علت اینکه امکان درج تصاویر استفاده شده در پاورپوینت وجود ندارد،در صورتی که مایل به دریافت  تصاویری از ان قبل از خرید هستید، می توانید با پشتیبانی تماس حاصل فرمایید 3-پس از پرداخت هزینه ، حداکثر طی 4 ساعت پاورپوینت خرید شده ، به ادرس ایمیل شما ارسال خواهد شد 4-در صورت  مشاهده  بهم ریختگی احتمالی در متون زیر ،دلیل ان کپی کردن این مطالب از داخل اسلاید ها میباشد ودر فایل اصلی این پاورپوینت،به هیچ وجه بهم ریختگی وجود ندارد 5-در صورتی که اسلاید ها داری جدول و یا عکس باشند در متون زیر قرار نخواهند گرفت

— پاورپوینت شامل تصاویر میباشد —-

اسلاید ۱ :

چرا کارایی بالا مورد نیاز  است؟

  • سرعت بالاتر(حل سریع مسائل)
  • پیش بینی هوا
  • خط مرگ نرم و سخت
  • گذردهی بالاتر(حل مسائل بیشتر)
  • پردازش تراکنش ها
  • قدرت محاسباتی بالاتر(حل مسائل طولانی)
  • پیش بینی هوا برای یک هفته در کمتر از ۲۴ ساعت

اسلاید ۲ :

آرگومان سرعت نور

  • سرعت نور تقریبا ۳۰ cm/ns است.
  • سیگنال با یک سوم سرعت نور در سیم مسی انتقال می یابد.
  • اگر برای اجرای یک دستورالعمل سیگنال ها باید ۱cm انتقال یابند، بنابراین این دستور حداقل در ۰٫۱ns اجرا می شود. در نتیجه کارایی آن محدود به ۱۰GIPS خواهد شد.
  • این محدودیت تا حدودی با روش های حداقل سازی معماری همانند حافظه ی نهان بر طرف می شود.

اسلاید ۳ :

چرا پردازش موازی نیاز است؟

Parallelism = Concurrency

  Doing more than one thing at a time

Has been around for decades, since early computers

I/O channels, DMA, device controllers, multiple ALUs

The sense in which we use it in this course

Multiple agents (hardware units, software processes) collaborate to perform our main computational task

– Multiplying two matrices

– Breaking a secret code

– Deciding on the next chess move

اسلاید ۴ :

۱٫۲ مثالی از موازی سازی

پیدا نمودن اعداد اول بین ۱ تا ۳۰ با روش غربال نمودن اعداد

هر عدد ترکیبی(غیر اول) مضربی از اعداد اول کوچکتر یا مساوی رادیکال آن عدد ترکیبی می باشد.

اسلاید ۵ :

Status of Computing Power (circa 2000)

GFLOPS on desktop: Apple Macintosh, with G4 processor

TFLOPS in supercomputer center: 

    ۱۱۵۲-processor IBM RS/6000 SP (switch-based network)

    Cray T3E, torus-connected

PFLOPS on drawing board: 

    ۱M-processor IBM Blue Gene (2005?)

    ۳۲ proc’s/chip, 64 chips/board, 8 boards/tower, 64 towers

    Processor: 8 threads, on-chip memory, no data cache

    Chip: defect-tolerant, row/column rings in a 6 ´ ۶ array

    Board: 8 ´ ۸ chip grid organized as 4 ´ ۴ ´ ۴ cube

    Tower: Boards linked to 4 neighbors in adjacent towers

    System: 32´۳۲´۳۲ cube of chips, 1.5 MW (water-cooled)

اسلاید ۶ :

۱٫۵  Roadblocks to Parallel Processing

  • Grosch’s law: Economy of scale applies, or power = cost2
  • Minsky’s conjecture: Speedup tends to be proportional to log p
  • Tyranny of IC technology: Uniprocessors suffice (x10 faster/5 yrs)
  • Tyranny of vector supercomputers: Familiar programming model

 

  • Software inertia: Billions of dollars investment in software
  • Amdahl’s law: Unparallelizable code severely limits the speedup

اسلاید ۷ :

اثر گذاری پردازش موازی

   P  تعداد پردازنده ها

   W(pکار انجام شده توسط p پردازنده

   T(pزمان اجرایی توسط p پردازنده

  T(1) = W(1);   T(p) £ W(p)

  S(p) = T(1) / T(p)  افزایش سرعت

راندمان  E(p) = T(1) / [p T(p)]

   افزونگی   R(p)= W(p) / W(1)

بکارگیری  U(p) = W(p) / [p T(p)]

   کیفیت  Q(p)= T3(1) / [p T2(p) W(p)]

اسلاید ۸ :

     A  Amdahl’s Law (Speedup Formula)

  Bad news – Sequential overhead will kill you, because:

     Speedup  =  T1/Tp  £ ۱/[f + (1 – f)/p] £ min(1/f, p)

  Morale: For f = 0.1, speedup is at best 10, regardless of peak OPS.

     B  Brent’s Scheduling Theorem

  Good news – Optimal scheduling is very difficult, but even a naive

  scheduling algorithm can ensure:

      T1/p  £ Tp < T1/p + T¥ =  (T1/p)[1 + p/(T1/T¥)]

  Result: For a reasonably parallel task (large T1/T¥), or for a suitably

  small p (say, p < T1/T¥), good speedup and efficiency are possible.

     C  Cost-Effectiveness Adage

  Real news – The most cost-effective parallel solution may not be

  the one with highest peak OPS (communication?), greatest speed-up

  (at what cost?), or best utilization (hardware busy doing what?).

  Analogy: Mass transit might be more cost-effective than private cars

  even if it is slower and leads to many empty seats.