מה קורה לנו בסביבה של בינה מלאכותית
- אלון שוורץ
- 30 בדצמ׳ 2025
- זמן קריאה 4 דקות
בינה המלאכותית נכנסה לחיים שלנו במהירות שמזכירה מהפכות קודמות, אבל בניגוד למהפכות גלויות כמו הרכב או החשמל, כאן השינוי שקט. הוא לא משנה את הנוף החיצוני אלא את הנוף הפנימי: איך אנחנו חושבים, לומדים, שואלים שאלות, מקבלים החלטות ומבינים את העולם. דווקא בגלל שה-AI כל כך שימושי, כל כך נעים, וכל כך “עובד”, חשוב לעצור רגע ולשאול לא רק מה הוא מאפשר אלא גם מה הוא מחליש.
הבעיה הראשונה היא אובדן הידע הבסיסי. חשיבה ביקורתית לא מתקיימת בוואקום; היא נשענת על ידע, על היכרות עם תחום, על אינטואיציה שנבנית לאורך זמן. כשסטודנט כותב עבודה בעזרת AI, או מנהל מקבל סיכום “חכם” במקום לקרוא מסמך, הוא אולי חוסך זמן – אבל הוא גם מוותר על בניית מפת הידע הפנימית. כמו נהג שמגיע ליעד עם Waze אבל לא יודע איפה הוא היה בדרך, כך גם משתמש AI מגיע לתשובה בלי להבין את השדה שבתוכו היא יושבת.
מכאן נובעת בעיה עמוקה יותר: שחיקה של החשיבה הביקורתית. תשובות של בינה מלאכותית נשמעות לרוב בטוחות, מנומקות, רהוטות. דווקא הרהיטות הזו מקטינה את הדחף לבדוק, לערער, לשאול “מה חסר כאן?”. בלי ידע מוקדם קשה לזהות טעויות, הטיות או פישוט יתר. כך נוצר מצב פרדוקסלי שבו הכול נראה חכם אבל מעט מאוד נבחן באמת. זה דומה לנהיגה במהירות גבוהה: ככל שהדרך עוברת מהר יותר מול העיניים, כך יש פחות זמן לקרוא את הסביבה.
השלב הבא הוא אובדן היכולת לשאול שאלות טובות. שאלה איכותית דורשת הבנה של הקונטקסט, הכרה של הגבולות, ותחושה של “איפה כואב”. כשמשתמשים ב-AI בלי להבין את התחום, השאלות הופכות כלליות, שטוחות, והמערכת משלימה את החסר בנרטיב שנשמע סביר. במילים אחרות, מי שלא יודע גם לא יודע מה לשאול. לכן הבינה המלאכותית מועילה במיוחד לאנשים שכבר מחזיקים ידע, ומחלישה דווקא את מי שמקווה שהיא תחליף אותו.
מעבר לידע ולשאלות, נפגעת גם היכולת לשהות באי־ידיעה. פעם, רעיון היה צריך זמן. שאלה הייתה יכולה ללוות אותך ימים. היום, כל חוסר ודאות נענה מיידית. אין “עוד לא הבנתי”, יש תשובה מיידית, גם אם היא חלקית או שטחית. התוצאה היא ירידה בסבלנות הקוגניטיבית אותה יכולת אנושית חשובה להחזיק מורכבות, ספק, מחשבה לא פתורה. זו פגיעה ישירה ביצירתיות עמוקה, במחקר, ובחשיבה אסטרטגית אמיתית.
במקביל, אנחנו מאבדים בהדרגה גם את הזיכרון הפעיל שלנו. לא כי אנחנו פחות חכמים, אלא כי אין צורך לזכור. מונחים, הקשרים, השוואות הכול “שם בחוץ”. אבל חשיבה אינטגרטיבית מתרחשת רק כשיש מספיק חומר בראש כדי לחבר בין נקודות. בלי זה, החשיבה הופכת תגובתית: שאלה תשובה הלאה, בלי הצטברות, בלי עומק. כמו ניווט בלי מפה פנימית, גם כאן כל צעד תלוי במערכת חיצונית.
אחת הבעיות הפחות מדוברות היא אובדן הבנת התהליך. בעולם ה-AI אנחנו צורכים תוצאות, לא דרכים. טקסט מוכן, סיכום מוכן, רעיון מנוסח. אבל בלי להבין איך נוצרה התשובה, קשה ללמוד ממנה, קשה להעביר אותה הלאה, וקשה לקחת עליה אחריות. בארגונים זה מתבטא בהחלטות “חכמות” שאף אחד לא באמת יודע להסביר. באקדמיה בעבודות שנראות מצוין אבל אין מאחוריהן הבנה אמיתית.
ומכאן נובעת שאלה מוסרית־מקצועית: האחריות הקוגניטיבית. כשנהג אומר “ה-Waze אמר”, וכשעובד אומר “ה-AI כתב”, משהו באחריות האישית מתמסמס. מי אחראי לטעות? מי הפעיל שיקול דעת? הבינה המלאכותית, כמו המכונית, מאפשרת פעולה בלי מעורבות מלאה וזה נוח, אבל גם מסוכן.
בשלב הזה נכנסת לתמונה פגיעה עמוקה יותר, כמעט נסתרת: אובדן החשיבה האבדוקטיבית. אבדוקציה היא אותה קפיצה אינטואיטיבית שמאפשרת לנו להציע השערה חדשה כשאין עדיין נתונים מלאים. זו החשיבה של “יכול להיות ש…”, החשיבה שמולידה רעיונות, תיאוריות ופריצות דרך. הבינה המלאכותית כמעט ואינה פועלת כך; היא מזהה דפוסים קיימים, ממיינת, מסכמת, ומשכללת את מה שכבר נאמר. כשהיא הופכת לכלי החשיבה המרכזי, אנחנו מתרגלים לפתרונות שנשענים על העבר, ולא על האפשרי. מתקבל עולם חכם מאוד, יעיל מאוד אבל פחות ממציא, פחות מפתיע.
לצד זה מתרחש תהליך תרבותי עמוק: אובדן ההילה של התוכן. כמו שוולטר בנימין תיאר את אובדן ההילה של יצירת האמנות בעידן השעתוק, כך גם הטקסט בעידן ה-AI מאבד מהייחוד שלו. כשהכול ניתן לייצור מיידי, חלק, נכון לשונית ומותאם לקונטקסט, המילים מפסיקות לשאת עקבות של אדם. נעלמים המאמץ, ההיסוס, החיפוש אחר המילה המדויקת. הטקסט נעשה פונקציונלי, לא אישי. אפשר לקרוא אותו אבל קשה להרגיש שמישהו באמת היה שם.
זה פוגע גם במגע האנושי דרך השפה. בחירת מילים היא פעולה אישית: היא חושפת עולם פנימי, תרבות, חוויה, עמדה. כשמערכת מנסחת עבורנו, אנחנו מקבלים שפה “נכונה” אבל לא בהכרח שלנו. לאורך זמן, זה מטשטש הבדלים בין קולות, בין סגנונות, בין אנשים. כולם כותבים טוב אבל פחות ופחות כותבים אחרת.
ומכאן אולי הפגיעה העמוקה ביותר: דעיכתה של המטפורה והשירה. מטפורה אינה קישוט לשוני; היא כלי חשיבה. היא מאפשרת לנו להבין דבר אחד דרך דבר אחר, להזיז מושגים ממקומם, לייצר תנועה מחשבתית. הבינה המלאכותית נוטה למחזר מטפורות קיימות, שחוקות, מוכרות. היא ממחזרת דימויים במקום להמציא חדשים. כך נוצר שיח עשיר לכאורה, אך סטטי. שיח של מושגים מסודרים, ברורים אך חסרי תנועה.
אפשר לחשוב על זה כהבדל בין מושגים חיים למושגים “מחשביים”. מושג חי משתנה עם ההקשר, נטען במשמעויות חדשות, מתעוות, מתפתח. מושג מחשבי, לעומת זאת, מדויק, יציב, יעיל אבל קפוא. כשהשפה שלנו מתקרבת מדי ללוגיקה של מכונה, היא מאבדת את היכולת שלה לזוז, לרעוד, להפתיע. השירה לא נעלמת ביום אחד; היא פשוט מפסיקה להיווצר.
הבינה המלאכותית אינה רעה, בדיוק כפי שהמכונית אינה רעה. אבל כמו כל תשתית חזקה, היא משנה אותנו לא רק במה שאנחנו עושים, אלא במה שאנחנו כבר לא נדרשים לעשות. אם לא נבחר במודע אילו יכולות אנושיות לשמר ידע, ביקורת, אבדוקציה, שפה אישית, מטפורה נגלה שבעולם עתיר תשובות, טקסטים ויעילות, דווקא היכולת האנושית לחשוב אחרת, לומר אחרת, ולדמיין אחרת, הולכת ונשחקת.
תגובות