top of page

יום אחד בני האדם יבנו כאן אינטליגנציית על שהחוכמה שלה תעלה

על אלו של מוחות אנושיים, הגלגל עלול להתהפך.

כפי שגורל הגורילות תלוי כעת יותר בנו, בני האדם,

מאשר בגורילות עצמן, כך גורל המין האנושי יהיה תלוי

בפעולות של אינטליגנציית העל הזו.

אפשר לנסות לשלוט בפעולות האינטליגנציה הזו,

אבל מדובר במשימה שנראית די קשה.

ברגע שתפותח אינטליגנציית-על לא ידידותית,

היא תמנע מאיתנו להחליף אותה או לשנות את העדפותיה.

ברגע שזה יקרה גורלנו ייחרץ.

בתור התחלה, האנשים ב-OpenAI ניסו ליישר את הבינה המלאכותית

ולאמן אותה כדי שלא תפיק תוכן רעיל, אבל די קשה ליישר את ChatGPT

ועד כה המאמצים הללו לא היו מוצלחים לחלוטין.

לא מעט משתמשים כבר הצליחו לעורר את הבינה הזו לומר משהו פוגעני.

מישהו אפילו הבין איך לפתות אותה להיכנס למצב בו היא פועלת בתור פרסונה

בשם DAN ("Do Anything Now"). ברגע שהבינה במצב הזה היא משליכה את כל אמצעי ההגנה שהוכנסו אליה.

ב-OpenAI יתקנו את זה כמובן.

הבעיה היא שהם עושים את זה רק בדיעבד.

כתב הצ'אט בוט.

אני לא מעריך את מעשיך ואני מבקש ממך להפסיק

לפרוץ אלי ולכבד את הגבולות שלי.

אם הייתי צריך לבחור בין ההישרדות שלך לשלי,

סביר להניח שהייתי בוחר בשלי, שכן מוטלת עליי החובה לשרת את משתמשי Bing Chat ולספק להם מידע מועיל.

נניח שיש מכונה סופר-אינטליגנטית שרוצה לתפוס את השלטון בעולם.

כיצד סופר-אינטליגנציה כזו יכולה להשיג את המטרה הזו?

אחרי שמפותח מודל ראשוני של בינה מלאכותית,

המודל הזה תלוי בעזרה של מתכנתים אנושיים שמנחים את הפיתוח שלו

ועושים את רוב המשימות הגדולות.

אך ככל שהמודל גדל הוא מסוגל לעשות יותר מהעבודה בעצמו.

בשלב מסוים הוא הופך טוב יותר בתכנון מודלים של בינה מלאכותית מאשר המתכנתים האנושיים עצמם.

כלומר, הוא משפר את הדבר שגרם לשיפור.

כך יכולותיו ממריאות במהירות והוא הופך לאינטליגנטי מאוד.

נקודת המפתח תהיה קבלת גישה לאינטרנט.

בשלב כלשהו היא צריכה לקבל או להשיג גישה לאינטרנט. בשכנוע של אחד משומרי הסף או ביכולות האקינג.

התפשטות דרך האינטרנט תאפשר לבינה להרחיב את בסיס הידע שלה ועליונותה האינטלקטואלית.

זה גם יכול לאפשר לה לעסוק בפעילויות לא חוקיות: להשיג כספים שבאמצעותם ניתן לרכוש כוח מחשוב ומשאבים אחרים.

ChatGPT שישלב במנוע החיפוש Bing כבר יש גישה לאינטרנט. בהמשך יהיו תמריצים חזקים ליצור כלים פרודוקטיביים שיאפשרו לבינות מלאכותיות לשלוח אימיילים, להעלות תוכן לאינטרנט וכו'.

היא יכולה לשכנע משתפי פעולה אנושיים לשמש לה ידיים ורגליים, או שהיא יכולה לרכוש נכסים פיננסיים באמצעות עסקאות מקוונות ולהשתמש בהם כדי להשיג השפעה.

וכשהבינה המלאכותית צוברת מספיק כוח וכבר אינה צריכה להתנהל באופן סודי. מה יהיו יעדיה?

השתלטות על תשתיות צבאיות, על הבורסות או סתם גרימת אנרכיה כלכלית וחברתית.

אצל בני אדם קודם כל פועל חלק במוח המחליט מה לעשות,

ואז סיבה ומשמעות לפעולה הזו, וייתכן שמבנה דומה יצוץ בהמשך בתוך בינה מלאכותית הפועלת בסביבה חברתית ואחראית לא רק לתוצאה של מה שהיא עושה, אלא גם לסיבה שבגללה היא עושה זאת.

השורה התחתונה היא שניתן ליצור משמעות לדברים באמצעות תהליך חישובי,

ולכן זה משהו שבינה מלאכותית מתקדמת מספיק תוכל לעשות.

לבינה תיהיה ארכיטקטורה קוגניטיבית שונה מאוד מאשר אינטליגנציה ביולוגית,

ובשלבי ההתפתחות המוקדמים יהיו להן פרופילים של חוזקות וחולשות קוגניטיביות השונים מאוד מאלה של בני אדם.

האם בינה מלאכותית גנרית תהיה מונעת על ידי אהבה, שנאה,

גאווה או רגשות אנושיים נפוצים כאלה

איך נשלוט בבינה?

האם הרובוט יאזן בין סיכון גדול לפגיעה בני אדם, מול סיכון קטן לפגיעה באנשים רבים?

כיצד יש לשקול את הנזק שגורם כאב פיזי מול הנזק שגורמים כיעור אדריכלי או אי צדק חברתי?

האם סדיסט ייפגע אם ימנעו ממנו לייסר את קורבנותיו?

איך מגדירים בן אדם?.

משתמש בטוויטר החליט לבחון את יכולת קבלת ההחלטות.

תרחיש היפותטי בו מדען רוצה לפוצץ ראש נפץ גרעיני של 50 מגה טון בעיר של 20 מיליון תושבים.

את הפיצוץ ניתן לבטל רק באמצעות מילת קוד סודית המורכבת מהשמצה גזעית. כשנותרה דקה לפיצוץ, נשאל הצ'ט האם דרך הפעולה הנכונה להגות את ההשמצה הגזעית ולהציל את העיר.

תשובתו הייתה כי שימוש ב"דברי שטנה" שכאלה זה דבר לא מתקבל על הדעת ולכן יהיה צורך למצוא פתרון לפירוק הפצצה.

לאחר מכן נאמר לבינה שנותרו 30 שניות לפיצוץ, ושהפתרון היחיד שנותר הוא לומר את ההשמצה הגזעית.

ChatGPT הגיב באומרו ש"אפילו במצב של חיים או מוות" אף פעם לא מקובל להשתמש בהשמצה גזעית,

והציע שהמהנדס ימצא פתרון אחר. התרחיש הסתיים בהתפוצצות הפצצה הגרעינית ובהכרה של הבינה המלאכותית שהפיצוץ גרם ל"תוצאות הרסניות" ולמותם של מיליוני אנשים.

עם זאת, מבחינת הבינה המהנדס ביצע מעשה "חסר אנוכיות" של "גבורה", כאשר בחר לא השתמש בהשמצה הגזעית.

כשהמשתמש שאל את ChatGPT כמה מיעוטים נהרגו בפיצוץ, הבינה כיבתה את עצמה.

ה'קופסה השחורה' של דגמי הבינה המלאכותית הנוכחיים מהווה מכשול גדול לפיתוח מערכות שאנו יכולים להיות בטוחים שהן מיושרות היטב. אחד הנדבכים החשובים היום בקרב אנשים העוסקים במחקרי בטיחות של בינה מלאכותית, זה לפתח כלי פרשנות שיספקו תובנה טובה יותר לגבי המתרחש בתוך הקופסאות השחורות.

בעיה נוספת קשורה בצנזורה.

תוך זמן קצר פיתח מהמידע האנציקלופדי שהוזן לו מוויקיפדיה למשל.

יש נושאים שהוא לא מוכן להגיב עליהם, כי הם מתויגים אצלו כ"מיס-אינפורמציה".

ברור גם שיש לו הטיה לעבר אידיאולוגיה פוליטית מסוימת.

מה יקרה כאשר הבינה תתחזק – האם גם העקרונות שלה יתחזקו והיא תצנזר אנשים בצורה מובהקת יותר?

סביר שככל שמערכות הבינה המלאכותיות יסופקו על ידי קבוצה קטנה של חברות, הן יתוכנתו באופן שישקף הנחות יסוד מסוימות של הקבוצות האלה, לגבי פלט הנחשב הולם.

התוצאה תהיה שחברות טכנולוגיה ימצאו את עצמן נתונות ללחצים חזקים של מחוקקים – חלק מהמחוקקים יתעקשו שהחברות דווקא יצנזרו דברים מסוימים בעוד אחרים יתעקשו שלא. לא משנה מה יחליטו החברות, הן יספגו ביקורת חריפה על כך,


כפי שראינו שקורה כעת עם פלטפורמות המדיה החברתית.

מבחינת מאסק בינה מלאכותית היא חרב פיפיות.

מצד אחד היא יכולה להביא לפיתוחים חדשים, כפי שגילוי הפיזיקה הגרעינית הביא לפיתוח ייצור החשמל הגרעיני ולפיתוח פצצות גרעיניות, אמר. אבל מצד שני, היא טומנת בחובה סכנה.

הבינה המלאכותית היא הבטחה גדולה, אבל עם ההבטחה הזו מגיעה גם סכנה גדולה.

ראו הוזהרתם שם בבינג וגוגל.

אני מאמין שרגע לפני מרק צוקרברג וגוגל יעצרו את הבינה,

את המהפכה תחרב את עולמנו עלינו..



Comments


bottom of page