הבינה המלאכותית ואתם: המדריך ל-CTO

אחרי שכתבנו מדריכי AI למנמ"ר ולמנכ"ל, הגיע תורו של סמנכ"ל הטכנולוגיה ● תפקידו סבוך במיוחד, כי הוא חייב להתוות את מדיניות הטמעת כלי הבינה המלאכותית בארגון ● מה מומלץ לו לעשות ולמה לשים לב?

בינה מלאכותית לסמנכ"ל.ית הטכנולוגיה.

סדרת המדריכים החדשה שלנו, שמסבירה על האתגרים וההזדמנויות שיש לבכירים טכנולוגיים בבינה המלאכותית, ממשיכה: אחרי שכתבנו על ה-AI והמנמ"ר, ועליה ועל המנכ"ל, הגיע תורו.ה של האיש או האישה שאחראי.ת על הטמעת הטכנולוגיה וההנדסה. תפקידו.ה יתואר מכאן ואילך בלשון זכר, לשם הנוחות.

בין אם הגדרת התפקיד שלו היא CTO או סמנכ"ל טכנולוגיה, תפקידו, כשזה מגיע לבינה מלאכותית, סבוך במיוחד. ה-CTO לא רק חייב להיות מצוי בקדמת הטכנולוגיה ולהעריך כל כלי חדש שיוצא – ובשדה הבינה המלאכותית הקצב הוא מסחרר, אלא גם להתוות מדיניות להטמעה של כלים בארגון. במקרה שמדובר בארגון שעוסק בתוכנה, מתווספת לזה המשימה כיצד לנצל את כלי ה-AI לבניית מוצרים.

וייב קודינג, או: למי עובר היתרון?

האתגר הראשי של ה-CTO, שכבר הפך ליותר מאופנה ומשנה הליכי העבודה, הוא תופעת ה-וייב קודינג. הכוונה היא ליצירה של קוד באמצעות בינה מלאכותית, בין אם זה אצל ספקי תוכנה חיצוניים ובין אם בהליכים פנימיים של מחלקות הפיתוח בארגון.

חשוב להבין ש-וייב קודינג הוא אחד השינויים המעשיים ביותר שה-AI מכניסה לעבודה ההנדסית: היכולת "לדבר" עם מודל שפה, לקבל קוד מוכן, לשנות אותו במעגלים קצרים ולהתקדם במהירות מעבירה את היתרון ממי שכותב קוד הכי מהר למי שמנסח אותו הכי ברור, יודע להציב דרישות ומסוגל לזהות חריגות.

וייב קודינג - אתגר ניהולי ל-CTO.

וייב קודינג – אתגר ניהולי ל-CTO. צילום: Panchenko Vladimir, ShutterStock

עבור סמנכ"ל הטכנולוגיה, מדובר באתגר ניהולי בולט במיוחד. אם לא מייצרים מסלולים ברורים וסטנדרטים לעבודה עם המתודה החדשה, היא עלולה להכניס לבסיס הקוד לוגיקה לא עקבית, תלותיות מיותרות, פגיעה בביצועים וטעויות אבטחה, פשוט כי "זה עבד בפיילוט". לכן, נכון לאמץ את הגישה במקומות שהיא מייצרת ערך מיידי’ כמו אבטיפוס, כלי פנים, אוטומציה ושינויים ממוקדים, ובמקביל להחיל עליה את אותם הכללים הקשיחים של הפרודקשן: בדיקות לפני מיזוג, סקירת קוד מחייבת, סריקות תלותיות וסודיות, ובחינה שתופסת רגרסיות ועלויות בזמן אמת. במילים אחרות, צריך להתייחס לקוד שנוצר באמצעות AI כקוד שאינו אמין – עד שהוא עובר את אותו מסלול איכות ובקרה כמו כל רכיב אחר במערכת או קוד שנכתב בידי בן אנוש.

"המפתחים הפכו למנצחים על תזמורת"

ד"ר מייק ארליכסון, מתמטיקאי מהטכניון, מומחה לבינה מלאכותית ובעל ניסיון עשיר בהובלת פרויקטים של מחקר ופיתוח בחברות היי-טק וסטארט-אפים בעולם למידת המכונה, מסביר בשיחה עם אנשים ומחשבים כי "ה-וייב קודינג הוא לא גימיק, אלא שינוי פרדיגמה. כלים כמו קרסר וקלוד, בשילוב מודלים עוצמתיים כמו Opus 4.5 של אנת'רופיק, שינו את המשוואה, כי הם לא רק 'משלימים שורות', אלא מבינים את הקוד כולו. זה מאפשר למפתח בודד לתפקד כארכיטקט של מערכת שלמה". הוא מציין כי "בעיניי, הכלים הללו הם הסטנדרט החדש לכתיבת קוד, משום שהם מצמצמים את החיכוך הטכני ומאפשרים למתכנת להישאר באזורים של הלוגיקה העסקית, במקום לטבוע בתחביר".

ד"ר מייק ארליכסון.

ד"ר מייק ארליכסון. צילום: יח"צ

"עם זאת", מוסיף ד"ר ארליכסון, "השינוי הזה מחייב אותנו להגדיר מחדש את פרופיל המפתח. הסכנה הגדולה היא הצפה של הקוד בבאגים 'שקטים', שנוצרו על ידי AI ונראים תקינים. לכן, התפקיד של המפתחים משתנה בזמן אמת מכותבי קוד למנצחי תזמורת של כלי בינה מלאכותית. אנחנו צריכים היום אנשים עם הבנה מערכתית עמוקה, שיודעים לנהל דיאלוג עם המכונה, ולאו דווקא את אלה שזוכרים בעל פה כל ספריה".

מסמך המדיניות האמריקני שכדאי ל-CTOs ישראלים לאמץ

המכון הלאומי לסטנדרטים וטכנולוגיה (NIST) של ארצות הברית מציע במסמך מסודר מדיניות לניהול סיכוני בינה מלאכותית בארגון. העקרונות שהוא מתווה שם הם ארבעה – משילות, מיפוי, מדידה וניהול:

משילות – מי נושא באחריות ובאחריותיות, קביעת מדיניות ואישורים.

מיפוי – איפה המערכת תשב, מה היא תעשה, אילו נתונים יוזנו אליה ועל מי היא תשפיע.

מדידה – מדידות איכות שניתנות לכימות, מדידות בטיחות וביצועים.

ולבסוף, החלק הכי חשוב: ניהול – תיווך סיכונים, קביעת "מעקות בטיחות", חסימות ואישורים לשינויים ארכיטקטוניים, ושימור האפשרות לחזור לאחור במקרה של תקלה.

ד"ר ארליכסון: "מי שלא יטמיע עכשיו תהליכי פיתוח מבוססי בינה מלאכותית בצורה עמוקה ומוטמעת (נייטיב), יגלה בעוד שנה שהוא מתחרה עם צוותים שזזים פי 10 מהר יותר ממנו, עם חצי מהמשאבים"

המודל המומלץ לניהול פרויקטי בינה מלאכותית, לרבות סוכנים חכמים, שעומדים לתפוס נתח הולך וגדל מהעבודה בארגון, הוא לא "מודל אחד גדול שעושה הכול", אלא יותר חשיבת סטאק. הוא כולל שש שכבות:

שכבת המידע – קיטלוג של כל המידע שעומד להיכנס לפרויקט/מערכת הבינה המלאכותית.

שכבת המודלים – מהו מודל העבודה העיקרי? באילו מודלים משתמשים להשלמות ולכיוונונים עדינים?

שכבת הסוכנים – מי מנהל את האורקסטרציה? ניהול כלים ושימור זיכרון פעולות ארגוני, לצד קביעת מדיניות אחידה לכל הכלים שבשימוש.

LLMOps – כן, יש צורך באדם שזה תפקידו: הוא אחראי לפריסה, עדכון גרסאות, פיילוטים, ניטור והערכה.

תצפית וניתוחי עלויות – מעקב אחרי איכות התוצרים והתשובות שהבינה המלאכותית מספקת, סטייה מהתכנון ומה העלות לכל פעולה או משתמש?

השכבה האחרונה היא קביעת מסלולים ומשילות – מה מותר ואסור לעשות עם בינה מלאכותית בארגון, הגדרת תיעוד אחיד, וכן ביקורת ופיקוח על שרשרת האספקה ועל השימושים של ספקים חיצוניים ב-AI. זה חשוב מאוד כיום גם כדי לעמוד בחוקים ובתקנות של פרטיות ואבטחת מידע במקומות שונים בעולם. מומלץ לעניין זה לעיין בתקן החדש יחסית, ISO/IEC 42001 – לא בהכרח לענייני ציות מיידי, אלא כהרחבה ומדריך יישומי.

לסיכום אומר ד"ר ארליכסון: "אל תמדדו את ההטמעה בכמות השורות שנכתבו, אלא במהירות שבה רעיון הופך לפיצ'ר יציב בפרודקשן. מי שלא יטמיע עכשיו תהליכי פיתוח מבוססי בינה מלאכותית בצורה עמוקה ומוטמעת (נייטיב), יגלה בעוד שנה שהוא מתחרה עם צוותים שזזים פי 10 מהר יותר ממנו, עם חצי מהמשאבים".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים