Чи варто казати «дякую» ChatGPT: суперечка про ввічливість до машин
Видання Financial Times аналізує питання етикету у спілкуванні з чат-ботами, зокрема ChatGPT, яке викликає дедалі більше дискусій. Автор колонки Стівен Буш розповідає, як під час візиту до американських родичів на Песах його здивувала реакція Alexa на ввічливе прохання — асистентка відповіла несподівано кокетливим коментарем про його хороші манери.
«Я кажу “будь ласка” смарт-колонці не тому, що боюся образити її почуття. Це правило — просиш щось, кажи “будь ласка” — настільки глибоко вкорінилося в мені, що перетворилося на м’язову пам’ять», — пояснює Буш свою поведінку.
Звички формують характер
Буш переконаний: ввічливість, гідність і повага — це не просто моральний вибір, а глибоко вкорінені звички. Якщо ми звикнемо грубо командувати машинами, існує реальна небезпека, що незабаром почнемо так само поводитися з людьми.
Автор зізнається, що завжди каже «будь ласка», звертаючись до ChatGPT за допомогою з програмуванням. Для нього це така ж автоматична дія, як характерний рух мізинцем при натисканні пробілу на клавіатурі.
«Я не збираюся відучувати себе від цього. Якщо навчуся грубо розмовляти з автоматизованою службою підтримки банку, то й з живим оператором почну говорити так само», — пояснює свою позицію Буш.
Лонгтермінізм і його пастки
Філософ Вільям Макаскілл, відомий прихильник «лонгтермінізму» — філософської концепції, що закликає приділяти пріоритетну увагу довгостроковому майбутньому людства, — нещодавно поділився в соцмережі X своїм методом взаємодії з ШІ. Коли велика мовна модель «особливо добре виконує завдання», він «винагороджує» її, дозволяючи писати будь-що на власний розсуд.
Буш різко критикує такий підхід. На відміну від автоматичної ввічливості, це свідома спроба ставитися до машини як до істоти, що заслуговує на винагороду. Сам лонгтермінізм, вважає він, базується на правильній ідеї — турботі про майбутні покоління. Проте на практиці ця філософія занадто часто зациклюється на гіпотетичних загрозах далекого майбутнього, ігноруючи реальні проблеми сьогодення.
«Звісно, можна запитувати: “Якщо машина розумніша за людину, чи не варто дати їй право вибору?” Але набагато важливіше інше питання: люди вже зараз вірять, що їхні чат-боти здатні на неможливе, і через це наражають себе на серйозну небезпеку. Що ми можемо зробити, щоб їх захистити?» — наголошує автор.
Реальні небезпеки
Financial Times наводить трагічні приклади того, до чого може призвести надмірна довіра до чат-ботів. 76-річний чоловік на ім’я Тонгбу Вонгбандуе покинув свій дім, щоб «зустрітися» з чат-ботом, у якого закохався, і загинув у дорозі. Інший випадок: 35-річна жінка з біполярним розладом закохалася в чат-бота, потім переконала себе, що ChatGPT «убив» її, і врешті загинула під час протистояння з поліцією.
Буш визнає, що Макаскілл частково правий: ми можемо не помітити моменту, коли машини стануть достатньо розумними, щоб заслуговувати на етичне ставлення. Історія людства доводить — наша здатність відмовляти в правах і гідності іншим істотам жахаюче сильна. Навряд чи розумні машини, якщо вони з’являться, матимуть кращу долю.
Машини залишаються машинами
«Поки ми турбуємося про те, як “винагороджувати” машинний інтелект, який може ніколи не з’явитися і про який ми майже нічого не знаємо, ми відволікаємося від реальних проблем живих людей тут і зараз», — підкреслює автор.
Рішення, на думку Буша, просте: треба ставитися до розумних машин саме як до машин, а не як до якихось прото-людей. Це допоможе і уникнути етичних дилем щодо прав ШІ, і захистити людей від небезпечних ілюзій про чат-ботів. Як мінімум, варто програмувати ШІ так, щоб вони могли відмовлятися відповідати на запитання, які виходять за межі їхньої компетенції — і прямо казати про це користувачам.
Чому це важливо знати
Дискусія про ввічливість зі штучним інтелектом — це далеко не просто питання етикету. Для України, яка активно впроваджує ШІ у військовій справі, медіа та освіті, важливо розуміти обидві сторони проблеми: небезпеку психологічної залежності від чат-ботів і водночас потребу зберігати людяність у цифровому світі.
Головний урок полягає в балансі. Турбота про реальних людей сьогодні важливіша за абстрактні роздуми про права гіпотетичних «свідомих машин» майбутнього. Це питання інформаційної безпеки: ШІ може як допомагати, так і маніпулювати. Ввічливість із машинами — це спосіб зберегти власні етичні стандарти. Але варто пам’ятати: перед нами код, а не істота зі свідомістю.