thinclient

وبلاگی در حوزه تین کلاینت

thinclient

وبلاگی در حوزه تین کلاینت

دلایل پیدایش مجازی سازی و تاریخچه مختصری از آن

آینده تکنولوژی همیشه ریشه در گذشته دارد و گذشته مجازی سازی هم چیزهای زیادی برای گفتن دارد. فناوری که در حال تغییر شکل صنعت IT امروزی است، احتمالا نقش بزرگی در ساخت مراکز داده نسل بعدی نیز خواهد داشت. مجازی ‌سازی یعنی با استفاده از منابعی که به طور سنتی به سخت‌افزار متصل هستند، خدمات مفید فناوری اطلاعات ایجاد کنید. با توزیع قابلیت‌های یک ماشین فیزیکی میان کاربران یا محیط‌، از ظرفیت کامل یک ماشین فیزیکی استفاده کنید.
مراکز داده امروزه از تکنیک‌های مجازی سازی برای تقسیم سخت افزار فیزیکی استفاده می‌کنند. مجازی سازی مجموعه‌ای از منابع را ایجاد می‌کنند که شامل CPU، حافظه، دیسک، ذخیره سازی فایل، برنامه‌ها، شبکه و ارائه آن به کاربران است. معنای اصلی مجازی سازی یکسان است: ایجاد یک محیط محاسباتی برای اجرای چندین سیستم مستقل به طور همزمان. بیایید چند دهه به عقب برگردیم تا درک بهتری از دلایل پیدایش مجازی سازی داشته باشیم.
شروع با یک لاین کامپیوتر
یک لحظه تصور کنید: اوایل دهه 1960 قرن بیستم، یک موسسه علمی بزرگ با چند صد کارمند فقط از یک کامپیوتر استفاده می‌کند. اگر محقق یا دانشمندی در آن زمان نیاز به محاسبه داشت باید برنامه‌ای می‌ساخت و آن را در اپراتوری که کامپیوتر با آن کار می‌کرد به اجرا در میاورد.
ماشین‌های محاسباتی در آن زمان کمیاب، کند و بسیار گران بودند. حتی برنامه نویسان هم به آن‌ها دسترسی نداشتند، زیرا کار فردی در آن زمان ارزشی نداشت. هنگامی که برنامه نویسان داده‌ها را وارد می‌کردند یا به دنبال راهکاری برای حل مشکلات بودند، از کامپیوتر هیچ استفاده‌ای نمیشد. برای جلوگیری از این زمان بیکاری، توسعه دهندگان و رایانه‌ها از هم جدا شدند.
چند سال بعد دانشمندان به این نتیجه رسیدند که اگر به بیش از یک کاربر اجازه استفاده از کامپیوتر را بدهند، کارایی افزایش می‌یابد. هنگامی که کاربر داده‌ها را وارد رایانه می‌کند، همزمان سایر کاربران نیز می‌توانند با آن کار کنند و به همین ترتیب زمان بیکاری به حداقل می‌رسد. این ایده مفهوم "اشتراک زمانی" نام گرفت. مفهوم اشتراک زمانی بیانگر این است که منابع محاسباتی میان کاربران به اشتراک گذاشته می‌شود. این مفهوم در اوایل دهه 1960 ظاهر شد و تغییرات انقلابی بسیاری از جمله پیدایش مجازی سازی پدید آورد.
انجام کارها با سرعت بالا
در ابتدا ایده اشتراک زمانی به معنای واقعی کلمه اجرا شد: پردازنده فقط در زمان عملیات I/O بین وظایف سوئیچ می‌کرد. در حالی که کاربر در حال فکر کردن یا وارد کردن داده‌ها بود، کامپیوتر وظایف دیگری را پردازش می‌کرد.
چندی بعد تجهیزات قدرتمندتر شدند و کاربران برای انجام وظایف تعریف شده کافی نبودند. سپس به پردازنده آموزش داده شد که بیشتر اوقات بین وظایف سوئیچ کند. هر وظیفه زمانی که پردازنده با آن کار می‌کرد یک «کوانتوم» زمان دریافت می‌کرد. اگر یک کوانت برای تکمیل کار کافی نبود، پردازنده کار دیگری انجام می‌دهد و در کوانت بعدی به کار اول برمی‌گردد. سوئیچ‌ به قدری سریع اتفاق می افتند که حتی ممکن است کاربر فکر کند که از دستگاه به تنهایی استفاده کرده است.
اولین باری که مفهوم اشتراک زمانی اجرا شد، سیستم اشتراک زمانی موسسه فناوری ماساچوست در اوایل دهه 1960 بود. این سیستم با سیستم Fortran Monitor سازگار بود و بر روی پردازنده مرکزی IBM 7090 اجرا می‌شد. به هر حال، تقریبا در همان زمان، سیستم اشتراک زمانی نیز در کالج دارتموث (جایی که Basik در آن اختراع شد) راه اندازی شد. دانشمندان حتی موفق شدند آن را عرضه کنند، هرچند که زیاد فراگیر نشد.
از اشتراک زمانی تا دلایل پیدایش مجازی سازی
اولین سیستم عاملی که از اشتراک‌گذاری زمانی پشتیبانی می‌کرد Multics از خانواده یونیکس بود. هم Multics و هم سیستم دارتموث جایگاه خود را در آن زمان پیدا کردند، اگرچه از کامل بودن فاصله زیادی داشتند: کند، غیرقابل اعتماد و ناامن. هدف دانشمندان این بود که این سیستم‌ها بهتر شوند و حتی می‌دانستند که چگونه این کار را انجام دهند. اما تجهیزات بسیار محدود بود. غلبه بر این محدودیت‌ها بدون حمایت تولیدکنندگان سخت بود و پس از مدتی آن‌ها نیز به دانشمندان ملحق شدند.
IBM در سال 1968 یک پردازنده مرکزی جدید ایجاد کرد که از سیستم CP/CMS توسعه یافته توسط دانشمندان کمبریج پشتیبانی می‌کرد. این اولین سیستم عاملی بود که از مجازی سازی پشتیبانی می‌کرد و مبتنی بر مانیتور یا هایپروایزر ماشین مجازی بود. Hypervisor روی سخت افزار اجرا می‌شود و چندین ماشین مجازی ایجاد می‌کند. این رویکرد بسیار آسان‌تر از سیستم اشتراک‌گذاری زمان است و دلیل آن هم موارد زیر است:
1. ماشین‌های مجازی به طور اشتراکی از منبع استفاده می‌کنند، بنابراین کارایی بالاتری دارند.
2. هر ماشین‌ مجازی یک کپی دقیق از سخت افزار اصلی است، بنابراین شما می‌توانید هر سیستم عاملی را روی هر ماشینی اجرا کنید.
3. هر کاربر سیستم عامل مخصوص به خود را دارد، بنابراین بر سایر کاربران تاثیر نمی‌گذارد. این یعنی کل سیستم قابل اعتمادتر می‌شود.
پس از مدتی CP/CMS بهبود و توسعه یافت، تغییر نام داد و برای فروش عرضه شد. این سیستم پایه‌ای برای سیستم‌عامل VM/370 شد که با یکی از محبوب‌ترین مین‌فریم‌های IBM یعنی System/370 استفاده می‌شد. چنین سیستم‌هایی برای یک کاربر مدرن بسیار آشنا به نظر می‌رسید. مین‌فریم یک کامپیوتر بزرگ و قدرتمند بود در حالی که ترمینال‌ها دستگاه‌هایی بودند که صفحه‌نمایش، صفحه‌کلید و ماوس داشتند. کاربران با ترمینال‌ها کار می‌کردند تا داده‌ها را وارد کنند و پردازنده مرکزی این داده‌ها را پردازش می‌کرد. یک مین فریم می‌تواند به ده‌ها یا حتی صدها ترمینال متصل شود.
طلوع فناوری مجازی سازی
توسعه کامپیوترهای شخصی در اواخر قرن بیستم آغاز شد و نه تنها صنعت مین‌فریم بلکه توسعه فناوری‌های مجازی سازی را نیز تحت تاثیر قرار داد. در حالی که رایانه‌ها گران و حجیم بودند، شرکت‌ها ترجیح می‌دادند از پردازنده مرکزی استفاده کنند، زیرا توانایی خرید رایانه برای هر کارمند را نداشتند.
با گذشت زمان، کامپیوترها کوچک‌تر شدند و قیمت آن‌ها برای شرکت‌های خصوصی مقرون به صرفه شد. در دهه 1980، رایانه‌های شخصی ماجرا را تغییر دادند. همراه با کامپیوترهای بزرگ، فناوری مجازی‌سازی در پس زمینه غروب کرد، اما نه برای مدت طولانی. کامپیوترهای مقرون به صرفه به طور گسترده گسترش یافته بودند. سیستم عامل‌ها کاربردی‌تر شدند اما کمتر قابل اعتماد بودند. خطا در یک برنامه ممکن بود باعث از کار افتادن سیستم عامل شود و سایر برنامه‌ها را نیز تحت تاثیر قرار دهد.
مدیران سیستم برای بهبود پایداری، یک دستگاه به هر برنامه اختصاص دادند. با این کار ثبات افزایش یافت، اما هزینه تجهیزات نیز به دنبال آن بیشتر شد. و اینجا لحظه ای بود که مجازی سازی به صحنه بازگشت. مجازی سازی امکان استفاده از چندین ماشین مجازی مستقل را به کاربر می‌دهد. یعنی به جای تخصیص چندین کامپیوتر اختصاصی به یک کار، از یک کامپیوتر به عنوان میزبان استفاده می‌شود.
با توسعه سیستم عامل، اجرای یک سیستم عامل خاص در یک سیستم عامل دیگر ضروری شد. مجازی سازی می‌تواند این مشکل را نیز حل کند. در سال 1988، SoftPC منتشر شد. این نرم افزار اجازه اجرای برنامه‌های ویندوز و MS-DOS را بر روی سایر سیستم عامل‌ها می‌داد. چند سال بعد Virtual PC ظاهر شد و امکان اجرای سیستم عامل‌های دیگر را بر روی ویندوز فراهم کرد. توسعه صنعت میزبانی دلیل دیگری برای احیای فناوری مجازی سازی شد.
مجازی سازی سرور
توسعه اینترنت منجر به توسعه واقعی مجازی سازی شد. در ابتدا، سرورهای خود شرکت‌ میزبان وبسایت‌ها بودند. خرید تجهیزات برای شرکت‌های بزرگ و موفق سخت نبود. پس از مدتی شرکت‌های کوچک‌تر نیز به داشتن وبسایت احساس نیاز پیدا کردند اما پولی برای خرید سرور نداشتند، بنابراین شرکت‌های دیگر تصمیم گرفتند تجهیزات اضافی خود را به آن‌ها اجاره دهند. این سرآغاز صنعت میزبانی بود.
در سال‌های ابتدایی، میزبان‌ها مقداری فضای دیسک را روی یک سرور FTP یا کل سرور در اختیار کاربر قرار می‌دادند. با میزبانی FTP وبسایت‌های کاربران در پوشه‌های مختلف یک کامپیوتر نگهداری می‌شدند. بنابراین میزبانی FTP غیر قابل اعتماد و ناامن بود، اما از آن طرف هم اجاره کل سرور بسیار گران میشد. سرورهای مجازی جایگزین خوبی بودند: ارزان و تقریبا به اندازه سرورهای اختصاصی قابل اعتماد. به همین ترتیب، راهکارهای مجازی سازی سرور شروع به تکامل کردند.  VMware در اوایل دهه 2000 محصول خود را برای سرورهای x86 به نام ESX Server معرفی کرد. پس از چندین سال راهکارهای بسیاری ظاهر شدند:  Xen،OpenVZ  و سایر هایپروایزرها. فناوری‌ مجازی‌ سازی اساس فناوری‌ ابری را تشکیل می‌دهد که در مقاله‌های قبلی به آن‌ پرداختیم.
به منظور ساده سازی مدیریت مجازی سازی برای ارائه دهندگان و صاحبان زیرساخت‌های خصوصی، کنترل پنل‌های مجازی سازی شروع به ظاهر شدن کردند. VMmanager در سال 2003، ISPsystem را منتشر کرد.
VMmanager - یک پنل کنترل مدرن برای مدیریت مجازی سازی
VMmanager فناوری مجازی سازی را در دسترس همه قرار می‌دهد. شما می‌توانید ماشین‌های مجازی را در لینوکس یا ویندوز ایجاد کنید و آن‌ها را به مشتریان خود بفروشید یا خودتان از آن‌ استفاده کنید. ارائه دهندگان هاستینگ از VMmanager برای خودکارسازی VPS استفاده می‌کنند. توسعه دهندگان وب، ادمین‌ها، شرکت‌های توسعه نرم افزار و سایر سازمان‌های تجاری و فریلنسرها از این برنامه برای ایجاد ماشین‌های مجازی ایزوله استفاده می‌کنند. این پنل دارای یک رابط منظم و راحت است که به کاربران این امکان را می دهد تا عملیات را خودکار کنند یا سرعت بخشند. سایر مزایای VMmanager عبارتند از:
راه‌حل همه کاره: پنل ممکن است جایگزین کنسول، جدول موجودی تجهیزات و ابزارهای نظارتی شود.
رابط ساده و راحت: کاربران پنل می‌توانند به راحتی ماشین‌های مجازی با پیکربندی مورد نظر را ایجاد کنند و محیط مجازی را مدیریت کنند.
مدیریت و عیب یابی: اگر با مشکلی مواجه شدید، به راحتی می‌توانید علت را در Task Log پیدا کنید.
نتیجه گیری
اولین دلایل پیدایش مجازی سازی، محاسبات مرکزی یا مین‌فریم (نسل اول تکنیک‌های مجازی سازی) بود. این پلتفرم محاسبات مجازی شده است و امروزه نیز از آن استفاده می‌شود. برای مثال، آی‌بی‌ام  از ماشین‌های مجازی لینوکس بر روی پلتفرم‌های اصلی خود میزبانی می‌کرد که محبوبیت آن تا قرن بیست و یکم بسیار افزایش یافت. موج بعدی، مینی کامپیوترها در دهه‌های 1970 و 1980 نیز تکنیک‌های مجازی‌سازی را پیاده‌سازی کردند.
ما در این مقاله سفری کوچک در تاریخچه مجازی سازی داشتیم. همچنین مزایای متعدد مجازی‌سازی را مشخص کردیم و توضیح دادیم که چرا باید این تکنولوژی به برنامه‌های ما اضافه شود. مجازی‌سازی مزایایی برای کسب‌وکارها در هر اندازه‌ای دارد، از  شرکت‌های کوچک گرفته تا سازمان‌های بزرگ. در حالی که ممکن است شروع کار با مجازی سازی پیچیده به نظر برسد، مزایای طولانی مدتش این تلاش را ارزشمند می‌کند.

پایداری؛ بزرگترین مزیت کامپیوتر کوچک یا تین کلاینت

توسعه روز افزون رایانه در سال‌های اخیر مزیت‌های قابل توجهی را برای آسان کردن زندگی ما ارائه داده است. در نگاه اول به فرایند توسعه، کوچک سازی کامپیوترها بیش از هر چیز دیگری خودنمایی می‌کند. رایانه‌ها که زمانی به اندازه کمد دیواری بودند، در حال حاضر به اندازه یک جعبه کفش کوچک شده‌اند. درست مثل کامپیوترهای آل این وان که تمام قطعات خود را در مانیتورهایشان پنهان کرده اند. اندازه این کامپیوتر کوچک همانند: یک جعبه شکلات است! با این وجود آیا عملکرد مینی کامپیوترها مشابه با بستگان بزرگ‌تر خود است؟ آیا واقعا کامپیوترهای کوچک فقط مزیت دارند؟ کاربردهای آن‌ها چیست؟ پاسخ به این سوالات را می‌توانید در همین مقاله پیدا کنید.

تین کلاینت یا کامپیوتر کوچک چیست؟

امروزه کامپیوترهای کوچک نشان دهنده پیشرفت فناوری اطلاعات در سال‌های اخیر هستند. در واقع، ایده اصلی این صنعت کوچک کردن کامپیوترها تا حد امکان بود. در اوایل دهه 1960 تمرکز روی این بود تا کامپیوترهایی که در آن زمان فضای اتاق را پر کرده بودند، به حداقل اندازه ممکن برسند. تلاش برای ساخت مینی کامپیوتر در نهایت به ساخت اولین کامپیوترهای رومیزی منجر شد.

به دلیل اندازه این کامپیوترها به نام کامپیوترهای تاور شناخته می‌شدند؛ اما سقوط این برج‌ها در دهه نود آغاز شد. آن‌ها ابتدا به برج‌های متوسط و سپس به برج‌های کوچک تبدیل شدند. در همین زمان استفاده از رایانه‌های همراه مانند: نوت‌بوک‌ باعث تقویت گرایش به سمت رایانه‌های کوچک‌تر شد؛ تا جایی که توسعه کامپیوتر به رایانه‌های کوچک امروزی رسید: یک کامپیوتر کوچک که تمام سخت افزارهای ضروری سیستم کامپیوتری را در ابعادی به اندازه یک دست جمع آوری می‌کند.

مزایای کامپیوتر کوچک بدون فن

این رایانه‌های کوچک را می‌توان مستقیما روی میز قرار داد و بنابراین دسترسی به تمام درگاه‌های اتصال آن بسیار آسان است. همچنین این کامپیوتر برای استفاده در مکان‌هایی که فضا محدود است، به عنوان مثال روی میز پذیرش بسیار مناسب خواهد بود. زیرا امکان نصب بر پشت مانیتور را دارند.

حمل و نقل این کامپیوتر کوچک به دلیل ابعاد کوچک و جمع و جور بسیار آسان می‌باشد. راه اندازی مینی کامپیوتر بسیار آسان است و با اتصال مانیتور، صفحه کلید و ماوس برای استفاده آماده می‌شود. عملکرد این دستگاه کاملا مشابه با رایانه‌های بزرگ سنتی است و با تمام سیستم عامل‌ها سازگاری دارد. حتی کاربران صنعتی نیز می‌توانند راحت با این دستگاه کار کنند. در مقایسه با رایانه‌های شخصی سنتی، صرفه جویی در مصرف برق توسط این کامپیوترها، استهلاک کمتر قطعات و در نتیجه عمر طولانی‌تر از جمله مواردی است که مزید بر انتخاب آن ها شده است.

بیشتر کامپیوترهای کوچک بدون فن طراحی می‌شوند که هرکدام مزایای خاص خود را ارائه می‌دهند. کامپیوتر کوچک به دلیل طراحی بدون فن، بی صدا کار می‌کند و در نتیجه هوای اتاق کمتر آلوده می‌شود. به دلیل عدم وجود سیستم خنک کننده این دستگاه به صورت بسته طراحی شده است تا آن را در برابر گرد و غبار مقاوم ‌کند. این ویژگی هزینه‌های معمول سخت افزاری را تا حد زیادی کاهش می‌دهد. سطح بیرونی این دستگاه ها به صورت پره ای می باشد تا بتواند گرما را با محیط تبادل کند.

پایداری کامپیوترهای کوچک چگونه است؟

مزایایی مانند مصرف انرژی کمتر یا عمر طولانی‌ در نهایت امتیاز آی تی سبز یا green IT را به کامپیوتر کوچک می‌دهد. صنعت IT مدت‌هاست که در جستجوی مصرف حداقل انرژی بوده است. با خرید این کامپیوترها در هزینه برق و خرید سخت افزار صرفه جویی می‌شود و در عین حال تاثیرات اکولوژیکی مثبت دیگری نیز به همراه خواهد داشت.

رایانه‌ها و سرورها در سراسر جهان به انرژی زیادی نیاز دارند که به نوبه خود هزاران تن، دی اکسید کربن مخرب را به طبیعت وارد می‌کنند. کامپیوترهای کوچک آمده اند تا بگویند که راه‌های جدیدتری هم برای انجام کارها وجود دارد. این کامپیوترها با عمر طولانی خود فواید زیادی برای محیط زیست دارند و می‌توانند با اندازه بسیار کوچک‌تر با همان قدرت کار کنند. به دلیل پایداری این رایانه‌ها تا چندین سال نیازی به خرید رایانه جدید نخواهید داشت.

همانطور که گفتیم، اثرات مثبت این مینی کامپیوتر بر محیط زیست بسیار زیاد است. با یک مثال این موضوع را شرح می‌دهیم: شرکتی که از 25 کامپیوتر استفاده می‌کند، با تبدیل رایانه‌های سنتی خود به کامپیوترهای کوچک تقریبا 2000 دلار در سال صرفه جویی می‌کند. پس از اشاره به مزایای فراوان این رایانه‌ها، یک سوال اساسی مطرح می‌شود: معایب کامپیوتر کوچک چیست؟

کامپیوترهای کوچک و معایب آن‌ها

معایب این دستگاه عمدتا به کاربردهای خاص کاربران محدود می‌شود. برای مثال مینی پی سی کارت گرافیک اختصاصی درون خود ندارد، اما هر یک از این نکات را به سختی می‌توان به عنوان یک عیب یا ضعف در نظر گرفت. چرا که این ویژگی تنها بر تعداد کمی از کاربران تاثیر می‌گذارد.

همچنین، این محدودیت‌ها در بسیاری از رایانه‌ها و لپتاپ‌ها نیز وجود دارد. برخی از آن‌ها به هیچ وجه قابل ارتقا یا تنظیم مجدد نیستند، درایو نوری ندارند و کارت گرافیک اختصاصی در آن‌ها وجود ندارد. در پایان با تجهیزات سخت‌افزاری، تولیدکنندگان بیشتر بر روی نیازهای سخت‌افزاری اکثریت کاربران تمرکز کرده‌اند. و طراحی دستگاه‌های خود را بر این اساس انجام داده اند.

کاربردهای کامپیوتر کوچک در صنایع مختلف

فروش کامپیوترهای رومیزی سنتی سال‌هاست که متوقف شده است. نرخ رشد مینی کامپیوترها در بازار کامپیوتر به 30 درصد و حتی بیشتر رسیده است. این کامپیوترها محبوبیت زیادی دارند و هر روز در سازمان‌ها یا شرکت‌های بیشتری مورد استفاده قرار می‌گیرند. مزایایی که در این مقاله به آن‌ها اشاره کردیم کاربران را متقاعد می‌کند تا به سراغ این مینی کامپیوترها بروند. بنابراین جای تعجب نیست که کامپیوترهای کوچک در صنایع مختلف مورد استفاده قرار بگیرند. در اینجا به چند نمونه اشاره می‌کنیم:

دیجیتال ساینیج: تابلوهای دیجیتال یکی از گرایش‌های اصلی مهندسی ساختمان در سال‌های اخیر بوده است. پخش کننده‌های دیجیتالی چه برای اطلاعات رسانی و چه برای تبلیغات در بسیاری از بیلبوردها مورد استفاده قرار می‌گیرند و این سخت افزار مربوطه در بیشتر کامپیوترهای کوچک وجود دارد.

خرده فروشی: صنعت خرده فروشی نیز از علائم دیجیتال استفاده می‌کند. با این حال، در اینجا، کامپیوترهای کوچک بیشتر سیستم صندوق‌ها و اسکنرها را کنترل می‌کنند.

پایانه‌های کیوسک: نمایشگرهایی که در ایستگاه‌ قطار یا فرودگاه‌ها یافت می‌شوند عمدتا با کامپیوتر کوچک کار می‌کنند.

لجستیک: کامپیوترهای کوچک اغلب به عنوان دستگاهی برای دسترسی به پایگاه‌ داده یا برای پردازش داده‌های اسکنر مورد استفاده قرار می‌گیرند.

منطقه اداری: کامپیوترهای کوچک در اداره‌ها و سازمان‌ها به‌عنوان جایگزین مقرون‌به‌صرفه کیس‌های قدیمی جای خود را پیدا کرده اند.

تولید: مینی‌پی‌سی‌ها در شرکت‌های تولیدی برای کنترل ماشین پیدا می‌شوند، مشابه دستگاه‌هایی که در صنعت لجستیک استفاده می‌شوند.

خودرو: این روزها پلیس یا خدمات امداد و نجات و حمل و نقل عمومی از رایانه‌های موجود در هواپیما استفاده می‌کنند. این برنامه‌ها به سخت‌افزاری فشرده و در عین حال قدرتمند نیاز دارد.

تمام این مثال‌ها یک ویژگی مشترک دارند: محیط کار برای رایانه‌های سنتی مناسب نیست.

نتیجه گیری

کامپیوترها اغلب برای استفاده حرفه‌ای مجبورند سطوح بالایی از خاک و گرد و غبار یا دمای شدید را تحمل کنند. اینجاست که مزایای کامپیوتر بدون فن نمایان می‌شود. ساختار بدون فن با محفظه آلومینیومی کاملا بسته کامپیوتر کوچک مقاومت در برابر شرایط نامساعد را ممکن می‌سازد. پوشش آلومینیومی مینی کامپیوترها در محیط‌ کاری از آن‌ها محافظت می‌کند. علاوه بر این، ذخیره کردن فضا همیشه یک دلیل مهم برای استفاده از تین کلاینت است. هیچ نوع کامپیوتر دیگری با این ابعاد، چنین عملکردی را ارائه نمی‌دهد. رایانه‌های کوچک فضای بیشتری را روی میزکار فراهم می‌کنند. برخی از راهکارهای فنی بدون آن‌ها به هیچ وجه امکان پذیر نخواهد بود؛ مگر با هزینه‌های هنگفت!

توسعه کامپیوتر کوچک تا به امروز بسیار چشمگیر بوده است. تجهیزات سخت افزاری مینی پی سی‌ها بهبود یافته است و عملکرد قابل قبولی را ارائه می‌دهند. بنابراین تقاضای این دستگاه از سوی کاربران و شرکت‌های خصوصی روز به روز در حال افزایش است. با همه این عوامل، مینی پی سی چیزی بیش از یک ترند است، همان چیزی که دنیای کامپیوتر بارها و بارها آن را تجربه کرده است. رایانه‌های کوچک مسیر فناوری اطلاعات را تعیین می‌کنند، برنامه‌های کاربردی مهم‌تری را در اختیار دارند و آینده دیجیتال‌ بدون آن‌ها غیرقابل تصور است.

اهمیت پردازنده‌ گرافیکی برای هوش مصنوعی

با این که هوش مصنوعی، ترکیبی از یادگیری ماشین و یادگیری عمیق است، عملکرد آن کاملا به سخت‌ افزار وابسته است. در دنیای دیجیتال امروز، استفاده از GPU (واحدهای پردازش گرافیکی) بسیار رایج شده است. به نظر میرسد هوش مصنوعی در سال‌های اخیر به شهرت قابل توجهی دست یافته است، هرچند این تکنولوژی از دهه 1950 وجود داشت. هوش مصنوعی و بسیاری از برنامه‌های کاربردی دیگر، از هوش تجاری گرفته تا تجزیه و تحلیل داده‌های فشرده، به نیاز روز افزون استفاده از پردازنده‌های گرافیکی تاکید می‌کنند. برنامه‌های یادگیری ماشین و هوش مصنوعی به قابلیت پردازش پردازنده‌های گرافیکی نیاز دارند. قدرت محاسباتی یک GPU امکان پردازش میلیاردها ردیف داده را در صدم ثانیه فراهم می‎کند. در این مقاله اهمیت پردازنده‌ گرافیکی برای هوش مصنوعی را بررسی می کنیم تا با مزایای این پردازنده بیشتر آشنا شوید.

اهمیت پردازنده‌ گرافیکی برای هوش مصنوعی

برای درک این که چرا پردازنده‌های گرافیکی مهم هستند، باید آن را در فناوری‌های مختلف جستجو کرد که شامل: هوش مصنوعی، یادگیری عمیق و یادگیری ماشین می‌باشند. همانطور که می دانید هوش مصنوعی (AI) یک فناوری فراگیر است و یادگیری ماشین و یادگیری عمیق بخشی از چشم انداز هوش مصنوعی را تشکیل می‌دهند. GPU با ایجاد راهکارهای سفارشی و جدید، به پیشرفت‌ در حوزه های هوش مصنوعی، یادگیری عمیق و یادگیری ماشینی کمک شایانی کرده است.

هوش مصنوعی و یادگیری ماشین به زبان ساده

ساده‌ترین تعریف هوش مصنوعی این است که یک ماشین از تمام داده‌های موجود و مرتبط استفاده می‌کند تا شانس موفقیت خود را به حداکثر برساند. هوش مصنوعی با استفاده از استدلال و احتمال، به ماشین یا سیستم اجازه می‌دهد تا در تصمیم گیری شرکت کند. هوش مصنوعی متکی بر «یادگیری» سیستم است و دو نوع اصلی یادگیری مرتبط با این فناوری وجود دارد: یادگیری ماشینی و یادگیری عمیق.

استفاده از یادگیری ماشین در دنیای فناوری رایج شده است و بسیاری از سیستم‌ها بر اساس این رویکرد کار می‌کنند. یادگیری ماشینی توسط رسانه‌های اجتماعی، موتورهای جست و جو، خدمات آنلاین و سیستم‌های مدیریت داده استفاده می‌شود. این تکنولوژی داده‌ها را از طریق الگوریتم‌های مختلف اجرا کرده و از نتایج آن برای پیش بینی اتفاقات آینده استفاده می‌کند.

یادگیری ماشینی و یادگیری عمیق چه تفاوت هایی باهم دارند؟

یک راه حل خوب برای درک تفاوت این دو سیستم وجود دارد. سیستم‌ یادگیری ماشینی برای یافتن سریع‌ترین راه حل، میلیون‌ها گزینه را بررسی می‌کند. اما سیستم‌ یادگیری عمیق از دانش و تجربه از قبل به دست آمده برای درک محیط استفاده می‌کنند و با فیلتر کردن رویدادهای گذشته تصمیم می‌گیرد که چگونه عمل کند. یادگیری عمیق به یادگیری ماشینی برتری دارد و از الگوریتم‌های متعددی برای درک محیط اطراف خود استفاده می کند تا براساس آن تصمیم بگیرد.

حداکثر استفاده از GPU ها برای پروژه یادگیری عمیق

پردازنده‌های گرافیکی (GPU) که در اصل برای تسریع پردازش گرافیکی توسعه یافته‌اند، به طرز چشمگیری سرعت پردازش‌ یادگیری عمیق را افزایش ‌می‌دهند. سرعت یکی از اهمیت های پردازنده‌ گرافیکی برای هوش مصنوعی است. پردازنده‌های گرافیکی بخش مهمی از زیر ساخت هوش مصنوعی امروزی هستند و GPUهای جدید به طور خاص برای یادگیری عمیق توسعه یافته و بهینه شده‌اند.

اصول محاسباتی پردازنده های گرافیکی چگونه است؟

پردازنده‌های گرافیکی هسته‌های پردازشی تخصصی هستند که برای سرعت بخشیدن به فرآیندهای محاسباتی استفاده می‌شوند. در ابتدا این هسته‌ها برای پردازش تصاویر و داده‌های بصری طراحی شدند، اما در حال حاظر، پردازنده‌های گرافیکی برای بهبود سایر فرآیندهای محاسباتی مانند: یادگیری عمیق، مورد استفاده قرار می‌گیرند.

نحوه ارتباط پردازنده های گرافیکی با هوش مصنوعی چگونه است؟

GPU به یک عنصر کلیدی برای بهینه سازی یادگیری عمیق، افزایش سرعت پردازش کد نویسی، بهبود مدیریت داده، ایجاد محتوا و مدیریت تحلیل داده‌ها تبدیل شده است. تمام این فرایندها به پردازش سریع محاسبات وابسته هستند. هنگامی پردازش حجم عظیمی از داده‌ها (Big Data)، GPU وارد عمل می‌شود و کارهای پیچیده و بزرگ را به میلیون‌ها کار کوچک تقسیم می‌کند. به همین ترتیب، پیدا کردن راه حل‌ بسیار آسان‌ خواهد شد.

به همین دلیل است که از GPU برای یادگیری عمیق نیز استفاده می‌شود، اما اهمیت پردازنده‌ گرافیکی برای هوش مصنوعی بیشتر از اینهاست. GPUها چندین محاسبات را به طور همزمان انجام می دهند و این امر سرعت عملکرد یادگیری ماشین را به طرز قابل توجهی افزایش می‌دهد. با پردازنده‌های گرافیکی، هسته‌های زیادی در اختیار خواهید داشت؛ بدون این که کارایی یا قدرت آن‌ها کاهش دهند.

پردازنده‌های گرافیکی در طراحی معماری یادگیری عمیق

گنجاندن پردازنده‌های گرافیکی در سیستم یادگیری عمیق به دو عامل بستگی دارد:

پهنای باند حافظه: GPU پهنای باند مورد نیاز برای قرار دادن داده‌های بزرگ را فراهم می‌کند. دلیل این امر این است که پردازنده‌های گرافیکی دارای رم اختصاصی ویدیویی (VRAM) هستند که به شما امکان می‌دهد حافظه CPU را به انجام کارهای دیگر اختصاص دهید.

اندازه مجموعه داده: GPUها داده‌های بیشتری را نسبت به CPUها پردازش می‌کنند. با استفاده از آن‌ها می‌توانید مجموعه داده‌های بزرگ را با سرعت بیشتری پردازش کنید. هرچه مجموعه داده‌های شما بزرگ‌تر باشد، مزایای بیشتری از GPUها به دست خواهید آورد.

مزایا و ویژگی‌های بی شمار GPU چیست؟

پردازنده‌های گرافیکی که به‌عنوان یک پردازنده همراه برای CPU عمل می‌کنند، نقش بزرگی در افزایش سرعت پردازش سیستم ایفا می کنند. پردازنده‌ گرافیکی برای هوش مصنوعی، پردازش داده‌های فنی و علمی را بسیار سریع تر انجام می‌دهد و زمانی که در کنار CPU قرار می‌گیرند، باعث افزایش کارایی می‌شوند.

مزیت دیگر استفاده از پردازنده‌های گرافیکی این است که با تقسیم داده‌ها به تکه‌های کوچک‌تر، بار روی CPU را کاهش می‌دهند. GPU این قابلیت را دارد که در عین حل کردن مشکلات پیش آمده، پردازش را بدون محدودیت انجام دهد. از دیگر ویژگی‌های پردازنده گرافیکی میتوان به موارد زیر اشاره کرد:

قدرت پردازش بیشتر

افزایش فضای ذخیره سازی و پهنای باند

تجزیه و تحلیل قوی داده‌ها

تجزیه و تحلیل هوش مصنوعی و یادگیری ماشینی (ML)

پردازش سریع در بازی و کارهای گرافیکی

راه اندازی آسان در مراکز داده

پردازش GPU چگونه انجام می‌شود؟

پردازنده‌ گرافیکی با اجرای مجموعه‌ای از پردازش‌های CPU، برنامه‌ها را قادر می‌سازد تا با کارایی فوق‌العاده اجرا شوند. پردازنده‌ گرافیکی از طریق صدها هسته خود هزاران کار را با پردازش موازی در چند ثانیه محاسبه می‌کند. پردازش موازی به تابعی اشاره می‌کند که در آن مجموعه داده‌ها به هسته‌های پردازشی یک GPU هدایت می‌شوند و مشکلات را به طور همزمان حل می‌کنند. این در حالی است که CPU تنها وظیفه اجرای برنامه‌ها را برعهده دارد و در نتیجه، کارایی بسیار افزایش می‌یابد. GPU با تجزیه و تحلیل داده‌ها، راه را برای حل مسئله و افزایش عملکرد باز می‌کند. توانایی GPU در پردازش سریع حجم عظیمی از داده‌ها به صنایع مختلف این امکان را می دهد تا با سرعت بیشتری به داده‌ها دسترسی داشته باشند و بر اساس آن‌ها نوآوری های بزرگی ایجاد کنند.

نتیجه گیری

هوش مصنوعی، یادگیری ماشینی و یادگیری عمیق هنوز از نظر امنیتی در مراحل ابتدایی هستند اما قرار است ایده‌های بزرگی را پیاده سازی کنند. نکته مهم برای یکپارچه‌سازی‌ آن ها، داشتن سخت‌افزار مناسب برای پاسخ به حجم کاری بالاست. سازمان‌ها اغلب از پردازنده گرافیکی برای سرعت بخشیدن به حجم زیادی از کارها استفاده می‌کنند. به طور کلی، برای پشتیبانی از هوش مصنوعی، یادگیری ماشین و کارهای پردازشی سنگین به چندین تراشه GPU نیاز خواهید داشت. که در این مقاله به دلایل نیاز پردازنده‌ گرافیکی برای هوش مصنوعی اشاره نمودیم.

تولید محصولات سخت افزاری گوگل در منطقه‌ای جدید

طبق آخرین اخبار اعلام شده توسط خبرگزاری های معتبر، گوگل در حال برنامه ریزی برای راه اندازی یک فضای جدید در سیلیکون ولی برای تولید محصولات سخت افزاری جدید است. این غول جستجوی اینترنتی از سال ۲۰۱۸ بیش از ۳۸۹ میلیون دلار برای زمینی در شمال «سن خوزه، کالیفرنیا» هزینه کرده است. و همین موضوع نشان می‌دهد که برنامه‌های ویژه‌ای برای این منطقه دارد. طرح‌های اولیه منتشر شده توسط CNBC به عنوان یک مرکز تحقیق و توسعه ثبت شده است. مرکز جدید گوگل برای عملیات سخت‌افزاری و یک پردیس فناوری جداگانه که برای عموم قابل دسترسی است را نشان می‌دهد. این کمپ بین مقر اصلی گوگل در مانتین ویو و کمپ چندمنظوره این شرکت در سن‌خوزه واقع خواهد شد.

تولید محصولات سخت افزاری در سیلیکون ولی

Midpoint به عنوان یک پردیس فناوری جدید گوگل معرفی شده است که شامل پنج ساختمان اداری خواهد بود. که این ساختمان ها قرار است توسط پل عابر پیاده به یکدیگر متصل می‌شوند. بر اساس چندین سند برنامه‌ریزی شده، این ساختمان باید در مجاورت سه ساختمان صنعتی شرکت قرار گیرد. و برخی عملیات مربوط به بخش تولید محصولات سخت‌ افزاری از جمله وسایل هوشمند خانگی سری نست را انجام می‌دهند.

همچنین طبق این اسناد، ۲۰ درصد از ساختمان برای بخش‌های اداری و ۸۰ درصد برای بخش‌های تولید، ذخیره‌سازی، توزیع و سایر اهداف تعیین شده‌اند. گوگل از سال ۲۰۱۸ برای ساخت پردیس فناوری Midpoint برنامه‌ریزی کرده است. اما گوگل هنوز زمان مورد انتظار خود برای کامل شدن پروژه Midpoint را اعلام نکرده است. در اسناد برنامه‌ریزی منتشر شده همچنین به ساخت یک «مرکز تبادل سفر» دو طرفه، پارکینگ دوچرخه و مجوز تردد برای کارکنان اشاره شده است.

گفته‌های اخیر مدیران گوگل

گوگل هنوز نسبت به این گزارش واکنشی نشان نداده اما طبق گفته‌های اخیر مدیران این شرکت، ایجاد فضای بیشتر برای تولید محصولات سخت‌ افزاری کاملا منطقی به نظر می‌رسد. مدیر بخش سخت‌ افزار گوگل با نام ریک استرلو می‌گوید: این شرکت آماده است تا سهم بازار سخت‌ افزار بیشتری را به دست آورد. همانطور که در گزارش‌های اخیر منتشر شده بود، گوشی‌های پرچمدار گوگل در مقایسه با اپل و سامسونگ سهم بازار بسیار کمتری دارند.

چرا تولید محصولات سخت افزاری حائز اهمیت است؟

بی‌تردید نرم‌افزارها از اهمیت ویژه‌ای در فناوری برخوردارند. زیرا عموما خدمات بر پایه نرم‌افزارهای رایانه‌ای تعریف می‌شوند. و توسعه و ترویج استفاده از خدمات بر بستر نرم‌افزارها استقرار می یابد. اما در واقع آنچه که از اهمیت بیشتری برخوردار است بستر استقرار این نرم‌افزارها است. که به آن جان می‌دهد. تولید محصولات سخت افزاری از اهمیت ویژه‌ای برخوردار است. زیرا طراحی، تولید و توسعه آن ها می‌تواند از منظر توسعه زیرساخت‌ها امری استراتژیک به‌حساب آید. و تولید سخت افزار در داخل یک کشور به هر نحو می‌تواند زمینه‌های استقلال و رشد را در توسعه خدمات نرم‌افزاری و بومی‌سازی خدمات دربرداشته باشد.

اخراج کارمندان گوگل توسط مدیران ارشد

بعضی از کارمندان گوگل با استفاده از ابزارهایی که در اختیار داشتند اقدام به سوء استفاده از اطلاعات کاربران می‌کردند. که این کار برخلاف سیاست های کاری گوگل است و به عنوان جاسوسی شناخته شده است. در نتیجه این غول جستجو اقدام به اخراج ده ها کارمند خود کرد. طبق اخبار اعلام شده مشاهده میشود که گوگل در سال 2020 میلادی ۳۶ کارمند خود را اخراج کرده است. که بیشتر آن‌ها به شکل نادرستی از اطلاعات محرمانه استفاده کرده بودند.

به عنوان مثال اطلاعات را با افراد خارج از شرکت در میان گذاشته بودند. این شرکت ۱۸ نفر را در سال ۲۰۱۸ و ۲۶ نفر را در سال ۲۰۱۹ به دلایل مربوط به امنیت اخراج کرده بود. سخنگوی گوگل به بیزینس میگوید: ما دسترسی کارمندان را از طریق شماری از حفاظت‌های رایج صنعت به‌ شدت محدود کرده‌ایم. به طوری که برای این دسترسی لازم است تا دلیل موجه ای در کار باشد و این دسترسی نیز همراه با مانیتورنیگ خواهد بود.

نتیجه گیری

تولید محصولات سخت افزاری یکی از نکات بسیار مهم و حائز اهمیت در عصر حاضر است. زیرا با سرعت زیادی که فناوری در حال پیشرفت است. برای بهره مندی از آن لازم است تا محصولات سخت افزاری جدید برای بهرهمندی از ان ها تولید شوند. در جهان صنعتی امروز، به تولید به عنوان یک سلاح رقابتی نگریسته می شود. محصولات در حالی که باید بسیار کیفی باشند، تنها زمان کوتاهی در بازار می مانند و باید جای خود را به محصولاتی بدهند که با آخرین ذائقه، سلیقه و یا نیاز مشتریان سازگار هستند.

مهم ترین دلیل انتخاب مجازی سازی سخت افزار

قصد داریم در این مقاله به بحث مجازی سازی سخت افزار بپردازیم. در ابتدا توضیح کوچکی در رابطه با مجازی سازی می‌دهیم.

مجـازی سـازی پیونـد دهنـده میـان سـخت افـزار و سیسـتم عامـل اسـت.

و بـه شـما اجـازه می‌دهد جند نرم‌افزار کاربردی و سیستم عامل را بر روی یک سیستم فیزیکی پیاده‌سازی کنید.

و منجر به اسـتفاده بهینـه از تمـامی منـابع سیستمی، کاهش هزینه و کاهش مصرف انرژی می‌شود.

عموما از این فناوری برای قرار دادن بسیاری از سرورهای فیزیکی کوچک در یک سرور فیزیکی بزرگ استفاده می‌شود.

مجازی سازی سخت افزار روشی است که به موجب آن یک یا چند ماشین مجازی برای اشتراک منابع سخت افزاری یک رایانه فیزیکی ایجاد می‌شود.

مجازی سازی سخت افزار چگونه عمل می‌کند؟

چندین سال است که مجازی‌سازی سخت افزار توسط کسب و کارها برای افزایش کارایی و بهبود عملکرد رایانه ها استفاده می‌شود.

رایانه فیزیکی که سایر ماشین های مجازی با استفاده از Hardware virtualization روی آن کار می‌کنند به عنوان مهمان شناخته می‌شود.

در واقع ماشین های مجازی محیط های کامپیوتری شبیه سازی شده‌ای هستند. که می‌توان در آن‌ها نرم افزار مهمان را اجرا کرد.


نرم افزار مهمان به گونه‌ای اجرا می‌شود که گویی از سخت افزار خود استفاده می‌کند.

و معمولا حق دسترسی کامل به هر سخت افزاری که درون رایانه میزبان است را نخواهد داشت.

در این راهکار از مجازی سازی به ابزاری جهت کنترل همه منابع مشترک توسط ماشین های مجازی در یک رایانه نیاز دارد.

این عملکرد توسط نرم افزار hypervisor که مدیر ماشین مجازی نیز شناخته می‌شود انجام می‌شود.

در مجازی سازی سخت افزار، hypervisor نرم افزاری است که معمولا روی سخت افزار رایانه میزبان اجرا می‌شود.


چرا از Hypervisor استقاده می شود؟

توسط این نرم افزار میتوان دسترسی به پردازنده، حافظه و سایر منابع مورد نیاز ماشین های مجازی را کنترل کرد.

Hypervisor منابع سخت افزاری فیزیکی مشترک بین سیستم عامل مهمان و سیستم میزبان را مدیریت می‌کند.

و هر ماشین مجازی را قادر می‌سازد طوری رفتار کند که گویی تنها در اختیار منابع سخت افزاری است.

وظیفه اصلی hypervisor پردازش، نظارت و کنترل سخت افزار است.


اصطلاح مجازی سازی سخت‌افزار زمانی استفاده می‌شود که نرم افزار VMM یا ماشین مجازی یا هر hypervisor مستقیما روی سیستم سخت افزاری نصب شود.

بعد از این که مجازی‌سازی سخت افزار انجام شد، می‌توان سیستم عامل های مختلفی را نصب کرد و برنامه های متفاوتی را روی دستگاه اجرا کرد. 


فناوری مجازی سازی سخت افزار

پردازنده های قدرتمندی به طور مداوم توسعه می‌ یابند تا امکان ایجاد محیط های شبیه سازی شده بهتر فراهم شود.

Hardware virtualization به طور مداوم در حال توسعه است و بسیاری از افراد در صنعت محاسبات معتقدند که هنوز توانایی بالقوه خود را برآورده نکرده است.

مطمئنا محبوبیت آن به طور مداوم در حال افزایش است و هرچه تعداد افرادی که از این فناوری استفاده می‌کنند بیشتر شود، توسعه یافته تر می‌شوند.

مزایای این نوع مجازی سازی از نظر استفاده کارآمد از منابع و سازگاری نرم افزاری نشان می‌ دهد که مردم در آینده نیز از آن استقبال بیشتری خواهند کرد.


مزایای مجازی سازی سخت افزار
1) استفاده بهینه از منابع
منابع فیزیکی را می توان بین ماشین های مجازی تقسیم کرد.
اگرچه منابع بلا استفاده را می توان به یک ماشین مجازی اختصاص داد و در صورت نیاز توسط سایر ماشین های مجازی نیز قابل استفاده است.

2) هزینه های کلی کمتر به دلیل تلفیق سرور
اکنون، چندین سیستم عامل می تواند با هم در یک سخت افزار وجود داشته باشد.
این مقدار فضای رک را به حداقل می‌رساند، تعداد سرورها را کاهش می دهد و در نهایت مصرف برق را کاهش می‌دهد.

3) افزایش کارایی
مجازی سازی سخت افزار عملیات بسیار پیچیده برداشت سخت افزار را به حداکثر می‌رساند و حداقل زمان کار را تضمین می‌کند.
و کمک می‌کند تا یک ماشین مجازی مداوم از یک میزبان به میزبان دیگر به صورت پویا منتقل شود.
و همچنین در صورت خرابی میزبان اصلی، یک کپی در حال اجرا از ماشین مجازی را بر روی میزبان فیزیکی دیگر حفظ می‌کند.

4) افزایش انعطاف پذیری فناوری اطلاعات
این روش به استقرار سریع منابع سرور به روش های مدیریت شده و سازگار کمک می‌کند.
این امر منجر به این می شود که منابع مورد نیاز را به موقع در اختیار کاربران قرار دهد. می توان منابع را به طور مداوم نیز مدیریت کرد.

نتیجه گیری
مجازی سازی سخت افزار عمدتا برای سیستم عامل های سرور استفاده می‌شود.
زیرا کنترل ماشین های مجازی بسیار آسان تر از کنترل سرور فیزیکی است.
لازم به ذکر است که این روش دارای انواع مختلفی از قبیل: مجازی سازی کامل، مجازی سازی جزئی را دارد.
این نوع از مجازی سازی بسیار سریع در حال پیشرفت است و در سیستم عامل های سرور محبوبیت بیشتری پیدا کرده است.
منطق اساسی در پشت استفاده از این نوع از مجازی سازی ادغام سرویس های کوچک در یک سرور بزرگ فیزیکی است.
تا بتوان ارائه خدمات موثرتری را داشته باشیم.
هیچ رازی در رابطه با موفقیت وجود ندارد و موفقیت تنها نتیجه انتخاب های درست است.