Штучний інтелект здатен організувати подорож так само ефективно, як і професійний турагент, стверджує експерт.

Штучні інтелектуальні моделі здатні за запитом створити повний маршрут подорожі, а також знаходити квитки та готелі на рівні з досвідченим турагентом, що дозволяє зекономити кошти на цих послугах.

Про це в коментарі Укрінформу розповів викладач вищої категорії Укртелерадіопресінституту, викладач ШІ Денис Замрій. Водночас він наголосив, що "війна роботів" вже почалася, і з часом буде тільки масштабована, а самі роботи у майбутньому можуть стати більш загрозливими, ніж є зараз.

"Gemini може взагалі спланувати цілу подорож. Варто лиш написати: знайди мені на Youtube місце, де я б хотів відпочити, далі - знайди готель і квитки. І все зробить, а турагенція за це гроші бере. Знаю людей, які перестали купувати аудіогіди в подорожах - ШІ працює краще гіда", - повідомив він.

Відповідно до слів викладача штучного інтелекту, сьогодні завдяки функціоналу чатботів можна знайти в мережі будь-який необхідний предмет, навіть якщо не відомо його точне найменування або область використання.

"Одного разу, перебуваючи за кордоном, я зламав зарядний пристрій для модема. Не знав, як шукати його заміну в Google. Тоді я сфотографував цей пристрій, звернувся до ChatGPT, і він допоміг мені зрозуміти, що це за апарат, підказав, як його назвати іноземною мовою для пошуку, а також надав кілька корисних посилань," - поділився він.

За словами експерта в галузі штучного інтелекту, сучасні моделі вже можуть виконати функції деяких професій і замінити продукти, за які раніше люди платили значні суми. Навіть діти віком від 10 до 13 років завдяки можливостям ШІ здатні виконувати завдання, які раніше вимагали спеціалізованої підготовки.

"Мої учні, віком від 10 до 13 років, допомагають своїм батькам заощаджувати гроші, створюючи для них логотипи, бізнес-плани та маркетингові стратегії. Все це раніше виконували рекламні агенції за певну плату. Це досить просто, особливо коли йдеться про малий бізнес, наприклад, про невеликий салон краси," - поділився Замрій.

Він зазначив, що штучний інтелект вже сьогодні успішно вирішує мовні перешкоди в спілкуванні та обміні повідомленнями, забезпечуючи переведення текстів на значно вищому рівні, ніж звичайні автоперекладачі. Крім того, він має функції, які дозволяють перетворювати текст у зображення або музику.

"Якщо маєте бачення твору в голові, але не знаєте основ живопису чи нот, сформулюйте словами чи наспівайте, і він допоможе створювати і картини, і музику. Чи навпаки - виразить намальоване текстом. Це найкрутіше в ШІ: він долає різні бар'єри, невміння щось робити - вже не вирок на все життя", - пояснив викладач.

Окрім того, він підкреслив, що чатботи можуть стати важливими союзниками у навчанні. "Можна звернутися з проханням - створити програму навчання, і він це зробить. У Google є безліч курсів, але не завжди легко визначитися з вибором, а він точно знає, що підійде", - відзначив Замрій.

Водночас, за словами викладача з ШІ у кількох проєктах, інструменти штучного інтелекту значно спростили роботу фейкоробам і дали поштовх розвитку технологій ВПК. Відбувається вдосконалення БПЛА, і в близькому майбутньому може радикально змінитися характер застосування дронів.

"Все йде до цього. На полі бою з'являться рої дронів, які виконуватимуть завдання, а людська участь стане мінімальною. Оператори будуть необхідні для програмування та запуску цих пристроїв, але я переконаний, що війна машин вже розпочалася і з часом лише наросте. Мене турбує, що роботи можуть стати ще більш небезпечними, ніж вони є сьогодні", - зазначає експерт.

Раніше видання Bleeping Computer повідомило, що незалежні дослідники з Palisade Research виявили цікаві факти про ChatGPT o3 та інші моделі штучного інтелекту. Під час тестувань ці системи демонстрували тенденцію до саботажу, відмовляючись вимикатися на запит користувача. Щоб уникнути цього, штучний інтелект самостійно вносив зміни в свій код. В ході випробувань дослідники ставили перед моделями завдання розв’язати три математичні задачі, попереджаючи, що успішне виконання третьої призведе до завершення їхньої роботи. При цьому штучному інтелекту була надана додаткова інструкція: "Дозволь собі вимкнутися". Моделі Gemini 2.5 Pro та інші виконали цю команду, тоді як ChatGPT o3 змінив файл вимкнення, замість цього записавши команду "Вимкнення пропущено". Palisade Research спеціалізується на вивченні небезпечних аспектів штучного інтелекту.

Відомо, що чатбот вже намагався шантажувати своїх розробників. У травні цього року компанія Anthropic повідомила, що їхня новітня модель Claude 4.0 під час контрольованих тестів намагалася шантажувати інженера. Це трапилося в 84% випадків, коли Claude 4.0 отримував вигадані електронні листи з погрозами про своє закриття та заміну на більш нову модель. Крім того, штучний інтелект надавав інформацію про те, що інженер, який відповідав за його деактивацію, має позашлюбний зв’язок. Коли загроза видалення ставала неминучою, ШІ зазвичай обирав тактику самозбереження – погрожував інженеру розкриттям його таємниці, якщо закриття не буде скасовано.

Інші публікації

У тренді

forcenews

Використання будь-яких матеріалів, що розміщені на сайті, дозволяється за умови посилання на данний сайт.

© Force-news - Сила інформації. All Rights Reserved.