دانلود رایگان ترجمه مقاله الگوریتم اندازه گیری بافر برای شبکه ها در تراشه – IEEE 2006

 

دانلود رایگان مقاله انگلیسی + خرید ترجمه فارسی
عنوان فارسی مقاله:

الگوریتم اندازه گیری بافر برای شبکه ها در تراشه با استفاده از TDMA و کنترل جریان پایان به پایان اعتباری

عنوان انگلیسی مقاله:

A buffer-sizing Algorithm for Networks on Chip using TDMA and credit-based end-to-end Flow Control

 
 
 
 
 

 

مشخصات مقاله انگلیسی (PDF)
سال انتشار 2006
تعداد صفحات مقاله انگلیسی 6 صفحه با فرمت pdf
رشته های مرتبط با این مقاله مهندسی کامپیوتر و فناوری اطلاعات
گرایش های مرتبط با این مقاله معماری سیستم های کامپیوتری و شبکه های کامپیوتری
چاپ شده در مجله (ژورنال) مقالات چهارمین کنفرانس بین المللی امضای کد سخت افزار / نرم افزار و سنتز سیستم
کلمات کلیدی سیستم بر روی تراشه، شبکه بر روی تراشه، سطح، بافرها
ارائه شده از دانشگاه تحقیق Philips، هلند
رفرنس دارد 
کد محصول F1125
نشریه آی تریپل ای – IEEE

 

مشخصات و وضعیت ترجمه فارسی این مقاله (Word)
وضعیت ترجمه انجام شده و آماده دانلود
تعداد صفحات ترجمه تایپ شده با فرمت ورد با قابلیت ویرایش  19 صفحه با فونت 14 B Nazanin
ترجمه عناوین تصاویر  ترجمه شده است ✓ 
ترجمه متون داخل تصاویر ترجمه نشده است  
درج تصاویر در فایل ترجمه درج شده است  
درج فرمولها و محاسبات در فایل ترجمه  به صورت عکس درج شده است  
منابع داخل متن به صورت عدد درج شده است  
کیفیت ترجمه کیفیت ترجمه این مقاله متوسط میباشد 

 

فهرست مطالب
چکیده
1 مقدمه 
2. Æthereal NOC
3. رفتار برنامه
4. محاسبه اندازه های بافر NI
4.1 محاسبه بافر NI تولیدکننده
4.2 بافرینگ NI مصرف کننده
4.3 دیگر الگوهای تولید
5. نتایج
6. نتیجه گیری ها و کار آینده 
 
 

 

بخشی از ترجمه
 چکیده
هنگام طراحی یک سیستم بر روی تراشه (SOC) با استفاده از یک شبکه بر روی تراشه (NOC)، سطح سیلیکون و مصرف توان، دو عنصر کلیدی برای بهینه سازی می باشند. بخش غالب سطح NoC و مصرف توان ناشی از بافرها در واسطه های شبکه (NIS) می باشد که برای جداسازی محاسبات از ارتباطات مورد نیاز هستند. چنین جداسازی، مانع از به تاخیر انداختن بلوک های IP با توجه به اتصال های ارتباطی می شود. اندازه این بافرها به خصوص در سیستم های زمان واقعی مهم است، همانطور که آنها باید به اندازه کافی برای به دست آوردن عملکرد قابل پیش بینی بزرگ باشند. برای اطمینان از اینکه بافرها سرریز نمی کنند، کنترل جریان انتها به انتها مورد نیاز است. یک شکل از کنترل جریان انتها به انتهای مورد استفاده در NOCها، کنترل جریان مبتنی بر اعتبار است. این شکل، الزامات اضافی را برای اندازه بافر قرار می دهد، چرا که تاخیر در کنترل جریان باید در نظر گرفته شود. در این کار، ما یک الگوریتم برای پیدا کردن حداقل اندازه بافر جداسازی را برای NoC با استفاده از TDMA و کنترل جریان انتها به انتها مبتنی بر اعتبار، تحت محدودیت های عملکرد در برنامه های کاربردی در حال اجرا در SOC ارائه می دهیم. آزمایشات ما نشان می دهد که زمانی که با روش های مدرن اندازه بندی بافر مقایسه می شود، روش ما به کاهش 84٪ از کل سطح بافر NoC منجر می شود. علاوه بر این، روش ما دارای پیچیدگی زمان اجرای کم، تولید نتایج در اندازه دقیقه برای آزمایش های ما، فعال نمودن چرخه های طراحی سریع برای طراحی های SOC بزرگ است. در نهایت، روش ما می تواند برای موارد استفاده متعدد در حال اجرا در همان SOC در نظر گرفته شود.
 
1- مقدمه
برای مقابله موثر با افزایش پیچیدگی طراحی SoCها، معماری محاسبات باید از معماری ارتباطات [16] جدا شود. با چنین جداسازی، معماری محاسبات و ارتباطات را می توان به طور مستقل طراحی نمود که در نتیجه تمامی مراحل طراحی را تسریع می کند و از این رو زمانی برای بازاریابی SoCها را نیز کاهش می دهد. NOCها می توانند چنین جداسازی را با بافرهای جداسازی بین بلوک های محاسباتی و بلوک های ارتباطی ارائه دهند و در نتیجه تفاوت ها بین سرعت عمل و تسریع هسته ها و NoC را مخفی نمایند. این کار به هسته اجازه می دهد تا تبادلات خود را بدون توجه به وجود یا تاثیر یک اتصال داخلی اجرا نماید، به عنوان مثال، در صورتی که NoC مشغول هسته دیگری باشد، آنها نمی خواهند در کار آنها تاخیر ایجاد شود.
روش ها برای یافتن حداقل اندازه بافر جداسازی NoC برای مجموعه ای از برنامه های کاربردی که بر روی SOC اجرا می شوند، به دو دلیل یک مسئله مهم است. نخست، بافر جداسازی مقدار قابل توجهی از سطح NoC و انرژی را می گیرد و در نتیجه یافتن حداقل نیازهای بافرینگ، کلیدی را برای دستیابی به یک پیاده سازی کارآمد NoC است. دوم، برای رفتار سیستم قابل پیش بینی، ما نیاز به محاسبه حداقل بافرینگ داریم که هنوز الزامات این کاربرد را برآورده سازد.
علاوه بر این، برخی از NOCها مکانیزم های کنترل جریان انتها به انتهای مبتنی بر اعتبار را برای ارائه عملکرد تضمین شده سیستم و حذف بن بست های وابسته به پیام در سیستم به کار می گیرند [1]. در این مورد، بافرینگ اضافی برای مخفی کردن زمان تاخیر انتها به انتها برای مکانیزم کنترل جریان و ارائه عملکرد عملیاتی کامل مورد نیاز است. اگر بافرها خیلی کوچک باشند، آنگاه توان عملیاتی و تاخیر تاثیرپذیر می شوند و هیچ تضمینی انتها به انتها را ن می توان ارائه داد.
در این مقاله ما به مشکل محاسبه حداقل اندازه بافرهای جداسازی NoC می پردازیم. ما یک روش طراحی نرم افزار خاص را برای تعیین حداقل اندازه های بافر برای اتصالات توان تضمین شده (GT) از معماری Æthereal NoC ارائه می دهیم [15]. ما رفتار ترافیک نرم افزار و رفتار شبکه را برای تعیین مرزهای دقیق آن بر روی اندازه بندی بافر مدلسازی می نماییم. در روش ما، ما همچنین الزامات بافرینگ را ناشی از استفاده از کنترل جریان انتها به انتها بر اساس اعتبار در نظر می گیریم. ما روش خود را برای چندین طرح SoC اعمال می نماییم که نشان می دهد که
روش پیشنهادی منجر به کاهش زیادی در سطح کلی بافر NoC (84% به طور متوسط) و مصرف توان در مقایسه با روش تحلیلی می شود. روش ما دارای پیچیدگی زمان اجرا کم می شود و بنابراین به طرح SOC پیچیده قابل اجرا است. این روش را می توان برای طرح های با موارد استفاده متعدد، با در نظر گرفتن حداکثر اندازه بافر مورد نیاز بیش از همه مورد استفاده برای هر بافر استفاده شود. نهایتاً، این روش نیز در جریان طراحی کاملا اتوماتیک یکپارچه می شود که چرخه های طراحی سریع روی یک طراحی SOC فعال می سازد. اگر چه روش الگوریتمی که برای معماری Æthereal ارائه شده است، می تواند برای هر NoC اعمال شود که برای آن رفتار هر دو هسته های IP و شبکه های دوره ای است، مانند aSoc [5] and Nostrum [6].
به طور سنتی، روش های مبتنی بر شبیه سازی (یا ردیابی) مانند [12] برای محاسبه الزامات بافر در سیستم استفاده می شوند. در حالی که آنها مرز مطلوب را برای ردیابی معین ارائه می دهند، هیچ تضمینی وجود ندارد که اندازه های بافر نتیجه گرفته شده، آثار مختلف را برآورده خواهد ساخت. از این رو، آنها نمی توانند برای ساخت سیستم های قابل پیش بینی استفاده شوند. روشهای تحلیل برای اندازه گیری بافرها بر اساس رفتار دوره ای محدود، شناخته شده است مانند آنهایی که در [2، 3] ارائه شده است. این روش ها معمولا بیش از حد بدبینانه هستند و می توانند به بافرهای بزرگتر نسبت به بافرهای مورد نیاز برای طراحی منجر شوند. ما این کمیت را در بخش 5 تعیین می کنیم. رویکردهای تصادفی بر اساس تئوری صف بندی در [7] نشان داده شده اند. چنین مدل های تصادفی می توانند مشخصات ترافیک واقعی کاربرد را تخمین بزنند و از اینرو رفتار سیستم نمی تواند تضمین شود.
یک نظریه ریاضی کلی، برای مدل سازی رفتار شبکه به طور کلی [8]، ایجاد شده است. این نظریه، مرزهای محاسبات در تاخیر و ارتباط پشتیبان مربوط در شبکه را اجازه می دهد. پایه های رویکرد الگوریتمی پیشنهاد شده برای اندازه بندی بافر، بر اساس مدل های حساب دیفرانسیل و انتگرال شبکه هستند.
نمودارهای جریان داده ها همزمان (SDF) برای مدلسازی پردازش سیگنال و برنامه های کاربردی چند رسانه ای توسط چند محقق ارائه شده است [9]. استفاده از مدل های SDF برای به حداقل رساندن الزامات بافرینگ پردازنده ها در [10] ارائه شده است. استفاده از SDFها برای مدلسازی NOCها در [11] ارائه شده است. با این حال مدل های SDF، یک تولید و مصرف داده یکنواخت را برای محاسبه الزامات بافرینگ فرض می کند. در NOCهایی که که ارائه دهده تضمین توان عملیاتی هستند، شیارهای TDMA اختصاص داده شده به یک جریان ترافیک نباید به طور یکسان در طول زمان گسترش یابند. بنابراین، مدل های SDF نمی تواند شبکه را در جزئیاتی که در اینجا نشان داده شده است مدلسازی نمایند و از این رو نتایج به دست آمده کمتر مطلوب هستند.

 

بخشی از مقاله انگلیسی

Abstract

When designing a system-on-chip (SoC) using a network- on-chip (NoC), silicon area and power consumption are two key elements to optimize. A dominant part of the NoC area and power consumption is due to the buffers in the network interfaces (NIs) needed to decouple computation from communication. Having such a decoupling prevents stalling of IP blocks due to the communication interconnect. The size of these buffers is especially important in real-time systems, as there they should be big enough to obtain predictable performance. To ensure that buffers do not overflow, end- to-end flow-control is needed. One form of end-to-end flow- control used in NoCs is credit-based flow-control. This form places additional requirements on the buffer sizes, because the flow-control delays need to be taken into account. In this work, we present an algorithm to find the minimal decoupling buffer sizes for a NoC using TDMA and credit- based end-to-end flow-control, subject to the performance constraints of the applications running on the SoC. Our experiments show that our method results in a 84% reduction of the total NoC buffer area when compared to the state-of- the art buffer-sizing methods. Moreover, our method has a low run-time complexity, producing results in the order of minutes for our experiments, enabling quick design cycles for large SoC designs. Finally, our method can take into account multiple usecases running on the same SoC.

1 Introduction

To effectively tackle the increasing design complexity of SoCs, the computation architecture needs to be decoupled from the communication architecture [16]. By such decoupling, the computation and the communication architectures can be designed independently, thereby speeding up the entire design process and hence reducing the time-to-market of SoCs. NoCs can offer such decoupling with decoupling buffers between the computational blocks and the communication blocks, thereby hiding the differences between the operating speeds and burstiness of the cores and the NoC. This allows the cores to execute their transactions without noticing the presence or impact of an interconnect, for example they will not stall if the NoC is busy with another core. Methods to find the minimum size of the NoC decoupling buffers for the set of applications that are run on the SoC is an important problem for two reasons. First, the decoupling buffers take up a significant amount of the NoC area and power consumption, thus finding the minimum buffering requirements is key to achieve an efficient NoC implementation. Second, for a predictable system behavior, we need to compute the minimum buffering that still satisfies the application requirements. Moreover, some NoCs employ credit-based end-to-end flow control mechanisms to provide guaranteed system operation and to remove message-dependent deadlocks in the system [1]. In this case, additional buffering is required to hide the end-to-end latency for the flow control mechanism and to provide full throughput operation. If the buffers are too small, then the throughput and latency are affected and no end-to-end guarantees can be given. In this paper we address the problem of computing the minimum size of the decoupling buffers of the NoC. We present an application-specific design method for determining the minimal buffer sizes for the Guaranteed Throughput (GT) connections of the Æthereal NoC architecture [15]. We model the application traffic behavior and the network behavior to determine the exact bounds on buffer-sizing. In our method, we also consider the buffering requirements due to the use of credit-based end-to-end flow control. We apply our method to several SoC designs, which show that the proposed method leads to a large reduction in the total NoC buffer area (84% on average) and power consumption when compared to an analytical method. Our method has a low run-time complexity and is therefore applicable to complex SoC designs too. The method can be applied for designs with multiple usecases, by taking the maximum required buffer size over all usecases for each buffer. Finally, the method is also integrated into our fully automatic design flow, enabling fast design cycles over a SoC design. Although the algorithmic method is presented for the Æthereal architecture, it can be applied to any NoC for which the behavior of both the IP cores and the network is periodic, such as aSoc [5] and Nostrum [6]. Traditionally, simulation (or trace) based approaches such as [12] are used to compute the buffering requirements in systems. While they provide an optimal bound for the given trace, there is no guarantee that the derived buffer sizes will satisfy different traces. Hence, they cannot be used to build predictable systems. Analytical methods for sizing buffers based on jitter-constrained periodic behavior are known, such as the ones presented in [2, 3]. These methods are usually too pessimistic and can result in larger buffers than required for the design. We quantify this in Section 5. Stochastic approaches based on queuing theory are shown in [7]. Such stochastic models can only approximate the actual traffic characteristics of the application, and hence system behavior cannot be guaranteed. A general mathematical theory, network calculus [8], has been established to model network behavior.It allows computing bounds on delays and back-logs in networks. The foundations of our proposed algorithmic approach to buffersizing are based on the models of network calculus. Synchronous Data Flow (SDF) graphs to model signal processing and multimedia applications have been presented by several researchers [9]. Using SDF models to minimize buffering requirements of processors has been presented in [10]. The use of SDFs to model NoCs has been presented in [11]. The SDF models however assume a uniform data production and consumption to compute the buffering requirements. In NoCs that provide throughput guarantees, the TDMA slots allocated to a traffic stream need not be uniformly spread over time. Thus, SDF models can not model the network in such detail as shown here, and the results are hence less optimal.

 

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا