top of page
גלובס

האיום מבייג'ינג ועתיד התעסוקה: המדרון החלקלק של הבינה המלאכותית

ד"ר טל מימרן, מנהל מחקר של מרכז פדרמן לחקר הסייבר באוניברסיטה העברית וראש תוכנית 'בתכלית' (מכון למדיניות ישראלית) טוען כי בכל הנוגע לבינה מלאכותית, אנחנו רצים קדימה בערפל • התפתחות הבינה המלאכותית הופכת תסריטי מדע בדיוני לאיומים מוחשיים • מהפכת הבינה המלאכותית, פרויקט מיוחד.

מאת מיטל ר. פישמן

גלובס | 3.6.2022



צונאמי של דימויים מלאכותיים שוטף את הרשתות החברתיות בשבועות האחרונים. תמונות של חיות חמודות, בגוונים רגועים, שנוצרו כולן על ידי מחשבים, בידי כלי בינה מלאכותית שקיבלו הנחיות טקסטואליות. בתחילת החודש שעבר, הרשת התפוצצה בעקבות היכולות של הטכנולוגיה DALL·E 2 של חברת OpenAI. כמה שבועות אחריה, Google Brain חשפה את הגרסה שלה לטכנולוגיה הזו בשם Imagen. עתה מתעוררות מחדש סוגיות ותיקות, הנוגעות למקומה של הבינה המלאכותית בחיינו, ונושאים קריטיים בתחום זקוקים לבחינה.


זה שנים שכמעט כל חברה שמבשרת על חדשנות בפעילות או בעסקים, מעידה כי פריצת הדרך הושגה בעזרת בינה מלאכותית. עם זאת, נראה כאילו לראשונה זה עשור התחום מציג התקדמות משמעותית. הנושא מדובר הרבה יותר וחלה התעוררות בקרב פלטפורמות שונות. אבל למעשה, נדמה כי לא נרשמה פריצת דרך טכנולוגית מרשימה של ממש בשנים הבודדות האחרונות, אלא בעיקר שדרוג ביכולת עיבוד הנתונים. גם אם לא מדובר בפריצת דרך, יש מי שתולים את התעוררות השיח הנוכחית בשיפור היכולות, שהופך איומים תיאורטיים למוחשיים בהרבה. התמונות אולי חמודות, אבל הן מבשרות עתיד שעלול להיות אפל.


מימוש הפוטנציאל - המחשב חושב לבד

הבינה המלאכותית, אותה טכנולוגיה שמנסה לחקות את הבינה האנושית ולייעל הליכים, עשתה את הופעת הבכורה שלה בשנות ה-50, אז התחיל המחקר האקדמי בנושא. לדברי מומחים, פריצת הדרך הטכנולוגית האחרונה שאפשר להצביע עליה אירעה לפני כעשור, בדמות חדשנות בתחום הלמידה העמוקה והפיכתו לאחר מהענפים המרכזיים, ובכללם רשתות נוירונים עמוקות. "זה התחום שאחראי לרנסנס האדיר שאנחנו נמצאים בו וזה מה שהחזיר את התחום הזה לכותרות", מסביר אורי אליאבייב, יועץ בתחום הבינה המלאכותית ומנהל קהילת Machine and Deep Learning Israel, קהילת הבינה המלאכותית הגדולה בישראל (המונה למעלה מ-27 אלף מומחים ומפתחים).

אך אכן יש התעוררות של העיסוק בנושא. "בינה מלאכותית מתחילה להיות דומה לצורה שמחשבים נכנסו לחיינו לפני עשרות שנים: לאט-לאט, הם נהיו חלק מכל דבר שאנחנו עושים", אומר פרופ' אסף שוסטר מהפקולטה למדעי המחשב ע"ש טאוב בטכניון, ראש MLIS, המרכז ללמידה חישובית ולמערכות נבונות בטכניון. "בדומה לכך, כפי שכיום לא נוכל לעשות מיזמים מחקריים או עסקיים בלי מחשב, כך לגבי בינה מלאכותית - כל משימה שאנשים ייקחו על עצמם או כל פיתוח שיקרה - יכלול בתוכו בינה מלאכותית. חייבים אלגוריתמיקה חכמה כדי לעשות את הדברים בצורה טובה".


בדומה לאליאבייב, גם פרופ' שוסטר מצביע על מודל רשתות נוירנים עמוקות מתחום למידת המכונה כזרז בתחום. "הרבה שנים המודל היה קיים ואנשים לא הבינו את הפוטנציאל שלו. בעשור האחרון אנשים הבינו את הפוטנציאל במודל הזה, וזה גרם להתקדמות מטאורית בתחומים רבים כמו ראיית מכונה או חיזויים של אירועים". לדבריו, כל שינוי קטן שנעשה בתחום, מיד נבחן על ידי עשרות אלפי אנשים הבוחנים אותו ומנסים ללמוד ממנו ולהשתמש בו.

ד"ר טל מימרן, מנהל מחקר של מרכז פדרמן לחקר הסייבר באוניברסיטה העברית וראש תוכנית 'בתכלית' (מכון למדיניות ישראלית) טוען כי בכל הנוגע לבינה מלאכותית, אנחנו רצים קדימה בערפל. "אנחנו לא מבינים את כל ההשלכות ארוכות הטווח או את כל תהליכי קבלת ההחלטות של אלגוריתמים בעלי אינטליגנציה מלאכותית. לדוגמה, מתכנת יכול ליצור אלגוריתם שיקדם מטרה מסוימת, ואם הוא לא יבין את התוצאה של הבינה המלאכותית, הוא יצטרך לתכנת מחדש את האלגוריתם, כדי להבין למה התקבלה המסקנה הזו".


דוגמה מפורסמת מהעבר הייתה תוכנת זיהוי פנים שנכשלה כל פעם בזיהוי בין כלב האסקי לבין זאב. כשניסו להבין מה קרה שם, הבינו שזה בכלל לא קשור למאפיינים של החיה, אלא זה נבע מכך שהתמונות עם הזאבים שראתה הבינה המלאכותית היו בשלג. התוכנה שילבה שלג עם זאב, וזה הבסיס לטעות.


מומחים שונים אף מצביעים על כמה נושאים בתחומי האתיקה בתור הסיבות לכך שכיום הנושא נמצא בהתעוררות רבה - המערכה מול סין והשינויים בתעסוקה ובמקצועות העבודה, כתוצאה משילוב של בינה מלאכותית.



לקריאה נוספת:






סין מאיימת לפרוץ קדימה - ממשל סמכותני עם יתרון טכנולוגי

"יש לנו בעיה של פיצול ערכי בין המערב לבין שאר העולם. הפיצול הזה מוביל לכך שבמערב אנחנו דוחפים חברות פרטיות לקדם מחקר בתחום הבינה המלאכותית, ואילו בסין מי שמקדם את זה זו הממשלה. הטכנולוגיה עצמה מתקדמת בכל העולם, אבל בנתיבים שונים", מסביר ד"ר מימרן. לדבריו, אם חברה בארה"ב רוצה לעשות ניסוי בבינה מלאכותית, היא חייבת לעבור שלבים רבים של רגולציה, ועדות, אישורים - והיא עלולה להידחות כי ישנן מגבלות חמורות. "בסין לעומת זאת שמים מכשירים שבוחנים את מצב הרוח של הילדים ואת רמת הריכוז שלהם בכיתה, דברים שלא יקבלו כנראה אישור בארה"ב", הוא אומר.


סין שמה לה למטרה להיות המובילה העולמית בתחום הבינה המלאכותית עד שנת 2030, והממשלה משקיעה בכך משאבים רבים. "סין תציג לך מקרה הצלחה שבזכות בינה מלאכותית, הצליחו לעצור בשנה 3,000 אסירים נמלטים. אבל מצד שני, היא משתמשת בתוכנת זיהוי פנים שעוקבת אחרי כל הפעילות של האזרחים והמאפיינים שלהם. זה ניהול אוכלוסייה ברמה שלא נוכל לדמיין באמת", מסביר ד"ר מימרן.


לדבריו אנחנו חיים בעולם בו מסך הברזל של המלחמה הקרה מתעורר ומתמקם מחדש, וזה מאוד מדאיג בהיבט הזה של בינה מלאכותית. "סין מזהה את הנושא של בינה מלאכותית כדי לשנות את מאזן יחסי הכוחות. למרות שהיא מעצמה, סין רואה את עצמה כקורבן והיא חסרת מעצורים - כדי לקבל מה שהיא רוצה", מפרט ד"ר מימרן. "במקביל, המערב רוצה להחיל רגולציה שלא תחול על השחקן הכי מתקדם בנושא הזה. באיחוד האירופי יש יוזמות ופורסמו קווים מנחים", הוסיף.


לדבריו, עוד סיבה לכך שאנחנו מזהים את ההתעוררות בנושא, היא הספרינט של סין. "העולם המערבי מבין עכשיו שאם לא ייכנסו חזק לנושא, אנחנו נישאר מאחור. אנחנו לפני מהפכה תעשייתית חדשה וזה לא קרה הפעם בחצר האחורית שלנו. אם לא נתחיל לרתום ולהלהיב אנשים בנושא הזה, אנחנו נמצא את עצמו מפגרים. אומות העולם בתחרות מתמשכת, ועכשיו זה במרחב הסייבר", הוא קובע.


לפי אליאבייב, השאלה היא לאיזה צרכים ולאיזה שימושים לוקחים את הבינה המלאכותית: "יש מדינות שעושות עם טכנולוגיות כאלו שימושים רעים, אבל אלו מדינות שגם ככה עושות שימוש רע בכל היכולות שלהן. ברמת העיקרון, אפשר להשתמש בבינה מלאכותית בצורה ממשלתית, כך שיונגשו שירותים לקהל הרחב ויתאפשרו לאזרחים שירותים מותאמים אישית בצורה מדויקת יותר. הבינה המלאכותית עצמה לא בעייתית, אלא המדיניות של המדינה שעושה שימוש רע בכל היכולות שלה".


פרופ' שוסטר מסכים שהבעיה במשתמש ולא בטכנולוגיה: "השאלה אינה אם הטכנולוגיה טובה או לא, אלא האם המשתמש בה עושה שימוש נכון וראוי. ומי שיצטרך לתת על זה דין וחשבון ברחבי העולם אלו הרגולטורים והמבקרים. כי ברור לחלוטין שצריך להגביל את השימוש בטכנולוגיות שכאלו, כדי שנהיה במקום טוב יותר". לדבריו, הנושא של שילוב אתיקה וממשל עם בינה מלאכותית נמצא בתודעה ברחבי העולם. "ישנה עבודה מחקרית ועבודה של אנשים ברחבי העולם שלוקחים דיסציפלינות שונות, לדוגמה משפטיות, כדי לבחון את השילוב הנכון של בינה מלאכותית. עדיין לא הגענו לשורות תחתונות חד משמעיות, אבל כמו הרבה דברים במדינת ישראל - יעקבו כאן אחרי הרגולציה השונה כדי לדעת מה להחיל בישראל".


עולם העבודה - הכחדת משרות או הזדמנויות חדשות?

בכל פעם שמשתלבת טכנולוגיה בחיינו, דאגה גדולה מתעוררת בנוגע לאנשים המבצעים את אותן הפעולות. במרוצת השנים לא חסרות הפגנות של פועלים ועובדים בתחומים בהם הטכנולוגיה איימה על חשיבותם. לדברי מומחים שונים, כשהטכנולוגיה הופכת חכמה ויכולה להחליף את בני אדם, זה משמש כזרז נוסף להתעסקות בנושא. לא מדובר רק באוטומציה במשרות רגילות - הפיכת פעולה ספציפית לאוטומטית, אך השארת המשרה. עתה השיח עוסק בהפיכת תחומים מלאים לאוטומטיים, כמו משאיות ומפעלים.


בתור מי שעוקב מקרוב במיוחד בשנים האחרונות סביב בינה מלאכותית, אליאבייב משוכנע כי היא דווקא תהיה זרז לתעסוקה חדשה. "אני חושב שאנחנו דווקא נראה הזדמנויות חדשות למשרות חדשות בתעסוקה. אין ספק שזה ידרוש מאיתנו להבין מה סט הכישורים החדש שאנחנו נצטרך", הוא מסביר.


הדוגמה שהוא נותן היא הטרקטור. לפי שנים רבות, כששילבו את הטרקטור, הוא לא בא להחליף את החקלאי אלא לסייע לו. החקלאי נשאר רלוונטי והטרקטור הפך אותו ליותר יעיל, אך החקלאי נצרך לסט כישורים חדש. "להערכתי הבינה המלאכותית לא תיקח לנו את העבודה, אלא האנשים שיידעו להשתמש בבינה מלאכותית יינצלו את ההזדמנויות להבדיל מאלו שלא", אמר אליאבייב.


פרופ' שוסטר חוזר גם כאן על כך שהטכנולוגיה לא רעה מטבעה, אלא תלוי מי משתמש בה ומה הוא עושה. "במקרה שלנו, הבינה המלאכותית תוכל להחליף בני אדם שעבדו בדברים פחות מעניינים או רפטטיביים בצורה אוטומטית". הוא מוסיף כי "הבינה המלאכותית מאפשרת ויוצרת אפשרויות לעבודות יותר מעניינות ומרתקות להתקדמות האנושית".


עם זאת, הביקורת שנשמעת בנושא היא שמי שבהכרח ייפגעו הם המעמדות הנמוכים, מי שלא יוכלו לרכוש את הכישורים הנדרשים כדי להשתמש בבינה מלאכותית או להתמודד על משרות פיתוח. "העולם הולך לכיוון של שינוי הולך ומתגבר. ככל שאנחנו נעים קדימה, הטכנולוגיה מאפשרת לנו להשתנות מהר יותר ולייצר טכנולוגיה טובה ומהירה יותר", מפרט פרופ' שוסטר. "מי שיכול ללמוד דברים תוך כדי הקריירה שלו, להטמיע אותם ולהשתמש בהם - יהיה המנצח. מי שחושב שהעולם יישאר במקום והוא יעבוד 30 שנות קריירה באותה הצורה, הוא לא רק טועה, אלא ככל שהזמן מתקדם הוא טועה יותר".


אך לא רק בעלי כישורים פשוטים נמצאים בסכנה גדולה. לדוגמה, ברגע שבינה מלאכותית תדע לזהות סרטן בצורה מדויקת, הרופאים יהיו חייבים להסתגל ולהשתנות. מומחים טוענים כי ייווצר מודל משולב של דיאגנוזה רפואית אנושית לצד בינה מלאכותית.


אם צריך לחשוב על הדרך הטובה ביותר לעשות את השינוי הזה מבחינת תעסוקה, היא בעזרת הכשרות צופות פני עתיד. "מצד אחד, צריך לייעל הליכים ולהגביר בטיחות וביטחון בקרב העובדים השונים, מצד שני בני אדם צריכים משמעות. אם נחיה בעולם שהמכונות עושות הכל בשבילנו, ואם נחיה בעולם שאני לא מזיז את ההגה כשאני מגיע ממקום למקום. איפה תהיה לי משמעות בחיים?", שואל ד"ר מימרן.


סטריאוטיפים, גזענות ושנאת נשים: הצד האפל של הציורים הכי ויראליים באינטרנט

גם אם הטכנולוגיה מראה לנו דברים יפים - זה לא אומר שהכל ורוד. היכולות הטכנולוגיות שמדגימות OpenAI ו-Google Brain מוצגות לנו בעזרת תמונות חמודות, כשלפי מגזין הטכנולוגיה של MIT שנוסד ב-1899, שופטים אנושים מעדיפים את הכלי של גוגל ומעניקים לו ציונים גבוהים יותר מהכלי של OpenAI. עם זאת, במקרה של שתי החברות האמת היא שהמערכות הללו יודעות להפיק תמונות שאנחנו לא נרצה לראות.


כשהחברות הציגו את הפיתוחים, הן הוסיפו את ההסתייגויות האלו. לדוגמה באתר של גוגל נכתב, "Imagen מסתמכת על מקודדי טקסט שהוכשרו על נתונים מהאינטרנט ולכן יורשת ולומדת את ההטיות החברתיות והמגבלות של מודלים גדולים. כך, קיים סיכון כי Imagen קידדה סטריאוטיפים וייצוגים מזיקים". את אותה תפיסה הציגה גם ב-OpenAI כשחשפו את מודל השפה האוטורגרסיבי שלה, GPT-3, אז הם אמרו: "למודלים שאומנו באינטרנט יש הטיות שגם הן בקנה המידה של האינטרנט" - או במילים אחרות, החברות יודעות שהמודלים מסוגלים להפיק גם תוכן מזעזע, ואין להן מושג איך לתקן את זה.


לכן הפתרון הוא לשמור אותם רחוק מהציבור. בגוגל נכתב שהם לא ישחררו את הכלי "ללא אמצעי הגנה נוספים", ואין שום תכנית להוציא את הכלי החוצה. במקביל, OpenAI מאפשרת לקומץ משתמשים מהימנים להשתמש בכלי שלה. זו גם הסיבה שהתמונות שמוצגות לנו מהטכנולוגיה הזו כה חמודות - כדי שלא נחשוב על הדברים הרעים שהבינה המלאכותית הזו מסוגלת להפיק.


התמונות שמוצגות בבלוגים של החברות נבחרו בקפידה רבה. אבל התמונות החסרות הן אלו המכילות תמונות שכוללות סטריאוטיפים מלאי שנאה, גזענות ושנאת נשים. והכלים האלו יכולים להפיק תמונות שנאה, אלימות, פורנוגרפיה ועוד - אבל כרגע מסתירים את זה. החברות הללו פורצות גבולות בתחום הבינה המלאכותית, וטכנולוגיה מהסוג הזה תעצב את הצורה בה אנחנו חיים. החברות האלו שמבקשות להשיג פריצות דרך משמעותיות בתחום חייבות לבחון את היכולות שלהן ולחקור כמה שיותר כדי שנעשה שימוש חיובי בטכנולוגיות האדירות האלו ולא לנצל את כוחן לרעה.


Opmerkingen


bottom of page