תוכן פרסומי
ראשי » הכנסים הקרובים » השת"פ בין Nvidia לרד-האט מאפשר לארגונים להריץ AI ללא פשרות

תוכן שיווקי


עידו ופנר, מנהל תחום ענן ומרכז התמיכה ברד-האט בחטיבת מוצרי התוכנה של מטריקס. צילום: אורן גרימברג

לקראת אירוע רד-האט, פיצה וטכנולוגיה, 16 במאי, סינמה סיטי גלילות

השת"פ בין Nvidia לרד-האט מאפשר לארגונים להריץ AI ללא פשרות

פורסם ב-12 במאי 2019
פייסבוק טוויטר ווטסאפ פינטרסט לינקדאין דוא״ל

כתב: עידו ופנר, מנהל תחום ענן ומרכז התמיכה ברד-האט בחטיבת מוצרי התוכנה של מטריקס.

בשנה הקרובה, רוב ארגוני האנטרפרייז ישתמשו בפלטפורמות או שירותים בענן מסוג בינה מלאכותית. כדי להימנע מתקלות ומהרבה תסכול, רד-האט ו-Nvidia משתפות פעולה על מנת לתת פתרון להרצת עומסי עבודה של אפליקציות בינה מלאכותית על גבי Red Hat OpenShift, הפלטפורמה המובילה של רד-האט בתחום הפלטפורמה כשירות (PaaS), ועל גבי לינוקס.

רוב האפליקציות המודרניות נדרשות ללמוד את המידע ולנתח אותו במהירות ולכן, על מנת לקבל ביצועים טובים יותר, יש צורך לבחור את יחידות העיבוד המתאימות לפעולות שרוצים לבצע – CPU (ר"ת Central Processing Unit) או GPU (ר"ת Graphic Processing Unit). המעבר מ-CPU ל-GPU הכרחי אם רוצים להריץ תהליכי לימוד מכונה, בינה מלאכותית ולמידה עמוקה. יש הבדל משמעותי בין שתי השיטות: בעזרת עיבוד מסוג GPU ניתן לבצע מספר רב של פעולות במקביל ובעזרת יחידות עיבוד מסוג CPU אפשר לבצע חישובים יותר מורכבים, אך מספר קטן יותר של פעולות.

לא מעט חברות עושות שימוש ב-GPUs כדי להריץ עומסי עבודה על גבי לינוקס ו-OpenShift. השימוש ב-GPUs מספק ביצועים מרשימים. כיום ניתן לגשת לשכבת החומרה ולבצע שינויים לפי הצורך, כדי להריץ ולהבטיח ביצועים אופטימליים בעת השימוש בפלטפורמות לימודי מכונה כמו TnsorFlow ,Torch ,MXNet ו-Theano.

גם בעת שימוש בטכנולוגיית בלוקצ'יין יש צורך להשתמש ביחידות עיבוד מתקדמות. למשל, אם רוצים לכרות ביטקוין או את'ריום, ניתן להשתמש ב-GPU וגם ב-ASICs. בשימוש ב-ASICs יושגו ביצועים טובים יותר ולכן הוא כוח עיבוד לכרייה של מטבעות דיגיטליים.

עד כמה GPU מהיר יותר מ-CPU?

בעזרת TensorFlow בנינו מודל שמשתמשים בו ברשתות עצביות (Neural Network), הרצנו תהליך על פי מספר פרמטרים ובדקנו מי יבצע אותו מהר יותר. השתמשנו בכרטיס גרפי GeForce GTX עם זיכרון של 8 ג'יגה-בייט מול מעבד Intel Quad Core 2GHZ. התוצאה הייתה שהתהליך שהרצנו עם ה-GeForce היה מהיר פי 2062 מ-CPU של אינטל.

כדי לעשות שימוש ב-Nvidia GPUs יש צורך בהתקנת פלאג-אין ובהתקנת דרייבר מתאים על ה-Host שבו רוצים להשתמש, ולאפשר עבודה עם Nvidia container. כדי שאפשר יהיה לעבוד עם GPUs, חובה להשתמש ב-Container Runtime שיודע לעבוד ולנצל את החומרה. לכן, Nvidia פיתחה פתרון משלה להרצת קונטיינרים, שמותאם ל-Open Container Initiative, בדיוק כמו LXC ו-CRIO.

איך הרכישה של מלאנוקס משפיעה?

בתחילת מרץ השנה רכשה Nvidia את מלאנוקס הישראלית תמורת 6.9 מיליארד דולר. רכישה זו תאפשר לה להיות יותר פרודוקטיבית בהרצת עומסי עבודה, וכן בהשגת ביצועים אופטימליים בתחום האחסון, התקשורת ובכל תחומי הדטה סנטר.

האימוץ של טכנולוגיות בינה מלאכותית ומדעי נתונים יוצר דרישה לכוח מחשוב מתקדם וכדי לתת פתרון מתאים נדרשת החברה לבצע ארכיטקטורה הוליסטית, שתחבר בין משאבי המחשוב (ה-Computing Nodes) לבין רשתות התקשורת המתוחכמות של מלאנוקס, במטרה ליצר דטה סנטר ענק עם כוח מחשוב מואץ יותר.

לשתי החברות יש היסטוריה של שיתופי פעולה וחתירה לחדשנות. שיתוף הפעולה האחרון ביניהן הוביל לתרומה אדירה בבניית שני כוחות מחשוב מהמהירים בעולם. כיום, חברות מחשוב ענן מהמובילות בעולם משתמשות במעבדים של Nvidia וב-Interconnects של מלאנוקס על מנת לתת שירותים מתקדמים ללקוחות הענן הציבורי.

שיתוף הפעולה בין Nvidia לרד-האט יגרום לנסיקה בתחום הפתרונות והשירותים המוצעים ללקוחות בעולמות כגון הבינה המלאכותית והלמידה העמוקה – הן על גבי מערכת ההפעלה לינוקס והן על גבי פלטפורמת ה-PaaS האולטימטיבית מבית רד-האט.

השת"פ בין Nvidia לרד-האט מאפשר לארגונים להריץ AI ללא פשרות Reviewed by on . כתב: עידו ופנר, מנהל תחום ענן ומרכז התמיכה ברד-האט בחטיבת מוצרי התוכנה של מטריקס. בשנה הקרובה, רוב ארגוני האנטרפרייז ישתמשו בפלטפורמות או שירותים בענן מסוג בינה כתב: עידו ופנר, מנהל תחום ענן ומרכז התמיכה ברד-האט בחטיבת מוצרי התוכנה של מטריקס. בשנה הקרובה, רוב ארגוני האנטרפרייז ישתמשו בפלטפורמות או שירותים בענן מסוג בינה Rating: 0

הגיבו