האם מותר להעביר אחריות מוסרית לבינה מלאכותית בקבלת החלטות על חיי אדם?

שאלה:

שלום הרב שרלו,
אני פונה אליך בשאלה מורכבת הנוגעת לחיי רבים. אני עובד בחברה טכנולוגית וחלק מקבוצת מפתחים שעובדים על מערכת בינה מלאכותית גנרטיבית לקבלת החלטות במקצועות הבריאות. במהלך עבודתנו עלתה שאלה מוסרית מהותית: עד כמה מותר להעביר למערכת ממוחשבת את הכוח להמליץ על החלטות הנוגעות לחיי אדם? למשל - קביעת סדרי עדיפות בטיפול רפואי, אבחנות, מתן טיפול תרופתי, קביעת פרוטוקול טיפולי וכיוב'. השאלות שמעסיקות אותנו, ואנו רוצים לקבל חוות דעת אתית ויהודית:
* האם ההסתמכות על בינה מלאכותית בהחלטות כה משמעותיות אינה מרחיקה את האחריות האישית של המטפל?
*מהו הגבול המוסרי וההלכתי שבו ניתן "להעביר" אחריות למערכת ממוחשבת?
*כיצד לשמור על כבוד האדם כשמערכת קובעת לגביו החלטות?

תשובה:

שלום וברכה,

יישר כוח על  השאלה החשובה והחיונית, שכבר מלווה אותנו בהווה, ותלווה אותנו כנראה שנים רבות, ואף תלך ותחריף.

מטבע הדברים, אין לנו מסורת הלכתית ביחס לשאלות אלו, שהלוא לא היה אפילו דבר מה קרוב לבינה המלאכותית. אנו חייבים אפוא לבחון את הדברים לאור עמדות עקרוניות של ההלכה, בתחומים אחרים, ולנסות לבנות את ההלכה אריח על גבי לבנה. ככל שתרבה ההסכמה בין הפוסקים השונים בסוגיות אלו – כן סביר להניח שתתקבע עמדת ההלכה.

באופן עקרוני, ההלכה אינה מסירה אחריות מעל האדם. להפך, היא רואה את האדם אחראי למעשיו – "אדם מועד לעולם", ומחייבת אותנו להיזהר שלא להזיק – "ולא תשים דמים בביתך". על כן, אין האדם רשאי למסור את ההחלטות באופן מוחלט למערכות בינה המלאכותית, על אף קיצורי הדרך שהיא מאפשרת, ועל אף העובדה שהיא עצמה מבוססת על החלטות קודמות של בני אדם.

פעמים רבות כתבנו כי היחס אל מערכות הבינה המלאכותית צריך להיות כיחס שבין לומד לבין ה"חברותא", לאמור: היא מביאה רעיונות אדירים, מידע מקיף, אתגרי מחשבה ותוצאות של המערכות הלומדות שלה. לא זו בלבד, אלא שיש לה רשת נוירונים בהיקפים שאין כדוגמתם, ההולכים וגוברים ומתעצמים. על כן ניתן, ואף חובה, לנצל אותה כדי לקדם דיון פורה יותר ומדויק יותר בדילמות רפואיות. היא מסוגלת להציב בפנינו את האפשרויות ואת המשמעויות בצורה בהירה ויעילה.

ברם, אסור לאדם להניח לבינה המלאכותית להפוך לאוטוריטה, ולקבל אותה כפוסקת בסוגיות הרפואיות המורכבות. על אחת כמה וכמה כאשר מדובר במערכות שלא ניתן לעקוב אפילו בדיעבד אחרי מערכת השיקולים שלהם, בשל היותן מערכות לומדות. העין הבוחנת האנושית צריכה להיות מעורבת בהכרעה הסופית. רק לאחר זמן רב וניסיון המלמד על טיב ההכרעות של המערכת ניתן להעביר יותר ויותר הכרעות אליה, אולם גם אז – רק אם יש אפשרות לעקוב אחר התהליך שהביא להכרעה מסוימת, ולבחון שוב ושוב את פעילותה.

הדבר נובע בראש ובראשונה מהאחריות המוטלת על הצוות הרפואי. אולם יש לכך משמעויות נוספות, כגון שמירה על כבוד המטופל וכדו'.

כל טוב 

הרב יובל שרלו, ראש מרכז האתיקה בצהר

לקריאה נוספת:

שאלות נוספות

לספר ללקוחות שאני כותב תוכן עם בינה מלאכותית?

על הבינה המלאכותית וסיפור בריאת האדם

כתבתי שיר באמצעות בינה מלאכותית, האם זכויות היוצרים שייכים לי?

האם מותר הלכתית לבחור את מין העובר?

האם מותר להעביר אחריות מוסרית לבינה מלאכותית בקבלת החלטות על חיי אדם?

כמיהה לבת נוספת: האם מותר לפנות להליך PGD מסיבה רגשית?

האם ניתן להפקיד בידי בינה מלאכותית את פסיקת ההלכה?

על מי האחריות? שימוש בדמות של נפטר באישור יורשיו

עוד בצהר לאתיקה

ניירות עמדה

שימוש במערכות בינה מלאכותית לפסיקת הלכה [נייר עמדה מקוצר]

מאמרים

"ושמרו דרך ה' לעשות צדקה ומשפט": על אופייה של המדינה היהודית

סרטונים

פרשת לך־לך: כוח שניתן לאדם – נועד לשירות, לא לשעבוד

מאמרים

בטוח שיהיה טוב?

מאמרים

להילחם בעוול

שפת הים

מאמרים

המפתח להבנת נפגעי הנפש וכינונה של החברה מצוי בערבות הדדית

ניירות עמדה

יצירת ייצוגים דיגיטליים של נפטרים ע"י בינה מלאכותית [נייר עמדה מקוצר]

מאמרים

מיום הכיפורים לסוכות

סרטונים

פרשת כי תבוא: לדעת לחלוק עם הגר, היתום והאלמנה

מאמרים

מכה רעהו בסתר – ברשתות החברתיות

ספסל ריק מתחת לעץ בשדה

מאמרים

פגועי הנפש והתורה

מאמרים

אחריותנו לקיומו של העולם

יש לך שאלה לצוות המקצועי שלנו?