"אז מה, אני צריכה לעבור על כל מה שהבוט עושה? איך אני אדע שהוא לא עושה טעויות?"
הסדנה שהעברתי ביום ראשון במשרד התחבורה היתה שונה מהקודמת שהעברתי לפני שנה: קודם כל, זו הפעם השניה שפגשתי את מנהלי אגף החשבות, מפני שמדובר בסדנת המשך למתקדמים; מעבר לכך, לכולם כבר יש רשיונות ארגוניים לכלי הבינה של גוגל שמוטמעים במשרד. המשמעות של שני השינויים היא שאפשר לבנות ביחד יישומים שממוקדים בתהליכים מקצועיים ורצים על נתונים אמיתיים.
מצד אחד, אפשר ממש להרגיש ולראות את הפוטנציאל לשיפור – איכותי וכמותי. ג'מיני הצליח לכתוב בצורה מוצלחת דו"חות, לעצב דשבורדים ולפתח בוטים ייעודיים.
מצד שני, איך אפשר לדעת שהוא לא טועה?
יש, כמובן, את התשובות ה"רגילות" – הטילו על ג'מיני חלק מהאחריות לבדוק את התשובות שלו; וודאו שאתם מנחים אותו עם פרומפטים ראויים וחומרי רקע רלוונטיים; בדקו בכל זאת את התשובות, לפחות באופן מדגמי…
אבל מדובר בקבוצת מנהלים, ולכן חלק מהתשובות שנתתי כלל לא היו קשורים לבינה מלאכותית, אלא לתפיסת הניהול של כל אחד מהמשתתפים.
התייחסו לבינה כאל עובד חדש ביחידה שלכם, או לחילופין כאל ספק במיקור חוץ שעובד אתכם בפעם הראשונה.
נכון שלא הייתם נותנים לו לבצע משימות מורכבות או פעילויות ליבה בלי לוודא שהגדרתם לו גם גבולות גזרה וגם הנחיות לעבודה בתוך גבולות אלו?
נכון שגם אחרי שיצא לדרך הייתם בודקים אותו בצורה קפדנית בתחילת הדרך?
נכון שבהדרגה הייתם משחררים את המעקב הצמוד ועוברים לבדיקה מדגמית?
נכון שגם אחרי ששחררתם הייתם ממשיכים להכשיר אותו, לומר לו מה השתנה בסביבה או בתנאים, לחדד לו לקחים שלמדתם מאז שהוא התחיל לעבוד?
לשחרר זה לא קל. לשחרר זה גם לא תמיד אפשרי. במשימות שבהם מרכיב הסיכון הוא דרמטי – אל תשחררו, ובוודאי לא מראש; במשימות אחרות – שחררו בהדרגה, בהתאם לרמת הסיכון, אבל תוך כדי שאתם מתכננים ומיישמים מנגנוני בקרה רלוונטיים.
"לשחרר" את הבוט אין משמעותו לקחת סיכונים, אלא לנהל סיכונים, ויש הבדל דרמטי בין שני המושגים האלו.
