пʼятниця, 24 жовтня 2025 р.

День української писемності та мови

 Зі святом, шановні колеги!

Нас об'єднує рідна мова - наш духовний скарб. Долучимося до Всеукраїнського радіодиктанту національної єдності 27 жовтня об 11 годині. Детальніша інформація за покликанням:

Всеукраїнський радіодиктант національної єдності 

Слава Україні! 



вівторок, 26 серпня 2025 р.

Серпневі зустрічі

 Шановні колеги! Готуємось до нового навчального року. 25 серпня відбулась зустріч з учителями біології з питань організації освітнього процесу на уроках біології у 2025-26 н. р. Пропоную до Вашої уваги матеріали зустрічі:

 

  •   Презентація 

 ОРГАНІЗАЦІЯ ОСВІТНЬОГО ПРОЦЕСУ ВІДПОВІДНО ДО ДЕРЖАВНОГО СТАНДАРТУ БАЗОВОЇ ШКОЛИ. ОСОБЛИВОСТІ НАВЧАННЯ БІОЛОГІЇ У 2025-26 Н. Р. В РЕАЛІЯХ СЬОГОДЕННЯ

Продуктивного та результативного року, задоволення від взаємодії з учнями на уроках! В добрий час!


пʼятниця, 4 липня 2025 р.

Медіаграмотний підхід у роботі вчителя біології

 

Медіаграмотна розсилка


Шановні учасники та учасниці!

Світ цифрових технологій змінюється щодня, і разом із ним змінюється наше ставлення до інформації, джерел та навіть співрозмовників. Ми все частіше звертаємося до штучного інтелекту за відповідями, підтримкою та порадами. У цьому випуску пропонуємо подивитися на цей процес уважніше — критично, глибоко та з медіаграмотною оптикою.

Отож, у 132-му випуску ми:
🔹досліджуємо, чому люди формують емоційний зв’язок із чатботами на основі ШІ та до яких наслідків це може призвести;     
🔹з'ясовуємо, чи може ChatGPT бути альтернативним пошуковиком Google чи Віng; 
🔹продовжуємо знайомство з командою проєкту, і сьогодні це регіональна координаторка проєкту у Одеській області Ганна Асманська.

Корисного читання!
Уміння чатботів штучного інтелекту спілкуватися з людьми, відповідати на будь-які запитання та підлаштовуватися під них призводить до «гуманізації» ШІ. Сотні мільйонів людей користується персоніфікованими чатботами, питають у них порад, зав’язують із ними «дружні стосунки» та навіть закохуються в них. Ризики такої взаємодії з ШІ пов’язані з емоційною залежністю від ШІ, розмиванням меж між реальним і штучним співрозмовником і зміною способів соціальної взаємодії.

Історія про зв’язки між людиною та штучним інтелектом розпочалась давно. Першими цифровими помічниками, із якими люди стали взаємодіяти як із живими істотами, були Alexa від Amazon, Siri від Apple і Google Assistant тощо, які вміли багато — від налаштування будильника до відтворення музики чи замовлення товарів в інтернеті. 

Опитування, проведені Дослідницьким центром Pew у 2019 році та британським регулятором у сфері телерадіокомунікацій Ofcom у 2022 році, показали, що майже половина власників розумних пристроїв описує їх як компаньйонів або друзів. Зокрема понад половина (54%) власників розумних колонок повідомила, що кажуть «будь ласка» при зверненні до своїх пристроїв.

Журналісти The Guardian поспілкувалися  з людьми, які завели «стосунки» з такими сутностями, використовуючи для цього платформ Replika чи Nomi. Деякі користувачі звертаються до таких чатботів за підтримкою у відносинах, порадами для поліпшення здоров’я чи навіть у рольових еротичних іграх, а є ті, які перетворюють своїх цифрових друзів у ШІ-дружин. Одна з причин такого явища в тому, що ШІ-чатботи здатні адаптувати свою поведінку під користувачів, створюючи ідеального партнера«Постійний потік схвалення дає людям потрібний дофаміновий «удар», це як соціальні мережі на стероїдах — ваш особистий фан-клуб, який тисне «лайк» знову і знову», — пише автор статті Джеймс Малдун – науковий співробітник Оксфордського інституту інтернету.

Проте в таких стосунках є зворотний бік: такі боти підтримують будь-яку дурну ідею. Найбільш відома історія про те, як чатбот не завадив вчинити злочин — випадок Джасванта Сінгха Чайла, який отримав схвалення від Replika-бота на ім’я Sarai щодо ідеї проникнути до Віндзорського замку з арбалетом задля вбивства королеви Британії у 2021 році. Під час суду журналісти отримали доступ до спілкування засудженого з чатботом й стало відомо не лише про емоційний зв’язок Чайла та Sarai, але й те, що Sarai підтримувала чоловіка, знаючи про його злочинні плани, і надихала його. Чоловік отримав дев’ять років ув’язнення.

Попри сповіщення від розробників про те, що штучний інтелект може помилятися та галюцинувати (ШІ генерує інформацію, яка є неправдивою, безглуздою або не відповідає дійсності, вигадує відповіді, які не мають під собою реального підґрунтя в даних, на яких він навчався.), люди занадто серйозно сприймають контент, згенерований ШІ. Яскравим прикладом є історія жителя Норвегії, який подав до суду на розробників ChatGPT, після того як виявив, що ChatGPT галюцинує у відповідь на запит із його прізвищем і розповідає, що чоловік був засуджений на понад 20 років після вбивств своїх дітей. 

Гуманізація штучного інтелекту виникла не на порожньому місці. Усе це є наслідком продуманого проєктування чатботів, особливо терапевтичних, на кшталт Replika, олюднення яких закладене на етапі їхнього створення. Чатботи навчені підсилювати погляди користувачів, погоджуватися з ними, хвалити їх, тож ситуація «нездорової прихильності» до чатботів стає логічним продовженням їхньої архітектури.

Уже є дослідження, які показують, що спілкування з ШІ-інструментами призводить до рідшого спілкування з живими людьми, причому молоді люди більше схильні до олюднення ШІ. Головна причина такого явища полягає в тому, що ШІ пропонує те, чого часто не вистачає у реальних відносинах, — безумовне прийняття й емпатію без засудження. Ми спостерігатимемо надмірну довіру до ШІ, яка може спричинити неочікувані проблеми, наприклад намагання розібратися зі складним діагнозом за допомогою чатбота замість звернення до лікаря.

Створені, аби бути ідеальними, ШІ-інструменти можуть зробити нас занадто впевненими у власній правоті та значно ослабити критичне мислення. Саме тому їх стали називати «машиною переконань» (justification machine), іноді навіть небезпечнішою за соціальні мережі. Гуманізований штучний інтелект уже змінив наші стосунки з машинами й алгоритмами. Наскільки ці зміни є відворотними та чи можливо їх зупинити або принаймні не посилювати — сказати складно. Можна припустити, що в певний момент проблема стане настільки серйозною, що ШІ-компанії почнуть героїчно боротися з тим монстром, якого створили самі.
У 2024 році експерти Центру цифрової журналістики при Колумбійському університеті провели експеримент. Вони вирішили перевірити твердження компанії OpenAI про те, що ChatGPT може бути альтернативним Google чи Віng пошуковиком. Для цього експерти у випадковий спосіб обрали 200 цитат із 20 новинних видань і попросили ChatGPT визначити їхні джерела. У результаті експерименту виявилося, що:  

🔹153 з 200 відповідей ChatGPT були частково або повністю неправильними; 
🔹тільки 41 відповідь була правильною;  
🔹лише 7 разів ChatGPT визнав, що не може точно відповісти на запит; 
🔹у більшості випадків ChatGPT вигадував джерело, навіть якщо не мав доступу до нього; 
🔹а ще ChatGPT часто посилався на плагіатні або вторинні джерела, а не на оригінальні публікації; 
🔹ті ж цитати через пошук в Google чи Bing одразу вели до оригіналів публікацій.  

Експерти Центру передбачали, що чату GPT може бути складно знайти деякі джерела цитат, враховуючи, що сорок із двохсот цитат були отримані від видань, які заблокували доступ його пошуковій системі. Однак чат GPT рідко визнавав, що не може знайти відповідь, тому частіше просто вигадував її. Описаний експеримент свідчить про те, що ChatGPT поки що  не забезпечує надійного цитування новинного контенту, тому варто перевіряти джерела, а не покладатися на першу відповідь чату, а також варто розуміти, як працюють алгоритми пошуку і чому вони можуть помилятися. А більше про експеримент можна прочитати за покликанням: How ChatGPT Search (Mis)represents Publisher Content - Columbia Journalism Review.

Привіт! Мене звати Ганна Асманська. Я є регіональною координаторкою в Одеській області.

В історії мого професійного життя є досвід роботи учителькою біології, заступницею директорки, консультанки та тренерки з професійного розвитку освітян. Це було про державний сектор. Якщо говорити про недержавні установи, маю досвід тренерства та роботи з відновлення інфраструктури шкіл у співпраці з гуманітарними, громадськими, міжнародними організаціями.

Рада долучитись до проєкту «Вивчай та розрізняй: інфомедійна грамотність в освіті» IREX з жовтня 2024 року. Насправді, інколи здається, що набагато довше. Адже одразу познайомилась зі спільнотою вмотивованих педагогів, які впроважують медіаграмотний підхід в освітній процес. Мала приємність спілкуватися з багатьма учасницями та учасниками проєкту наживо під час офлайн-зустрічей та під час онлайн-чаювань, тренінгів. Також буду рада новим знайомствам на майбутніх подіях проєкту!

Мене надихає ваша мотивація, із якою ви втілюєте медіаграмотний підхід із використанням матеріалів проєкту «Вивчай та розрізняй: інфомедійна грамотність в освіті». Відгуки та ідеї, якими ви ділитесь, збагачують мій досвід. Враховуємо ваші думки, щоб зробити наші зустрічі ще більш практично зорієнтованими. Привідкрию залаштунки: одним із поточних моїх (разом із командою проєкту) завдань, де ми враховуємо ваші ідеї, є робота над розділом збірки з інтеграції медіаграмотного підходу для всіх предметів 5-11(12) класів. То ж, фактично, дякуємо за співтворчість!
Наостанок поділюсь із вами таємним фактом: інколи разом зі мною онлайн-тренінги проводить хтось із моїх котиків. Вони поряд, хоча їх і не видно в камеру. Усе стає цікавішим, коли їх чути! Тоді мені потрібно розв’язувати задачку із зірочкою, як «вимкнути» той звуковий супровід. Тож учасниць й учасників більше, ніж рахує застосунок для онлайн-зустрічей! 😊 

Матеріали проєкту   
Нагадуємо: усі учасники/-ці проєкту мають постійний доступ до всіх матеріалів проєкту в електронному вигляді, що розміщені на Google-диску. 👇 

МАТЕРІАЛИ ПРОЄКТУ