Помагане на хората да взаимодействат със системите с ИИ по сигурен, критичен и безопасен начин
26.05.2023
Хората могат безопасно да шофират до желаната от тях дестинация, като спазват правилата за движение и договорените кодекси за поведение, без непременно да знаят как работи двигателят на автомобила. Сега нека приложим същата аналогия, когато мислим за това как хората взаимодействат със системи с ИИ, като например цифрови асистенти, използващи гласово разпознаване, или алгоритми, които ни насочват към следващия филм, който ще гледаме.
Новата актуализация DigComp 2.2 има за цел да даде на потребителите основни познания за това какво правят системите с ИИ и какво не правят, и въвежда някои основни принципи, които трябва да се имат предвид, когато взаимодействат със системи с ИИ. Това може да помогне на гражданите да станат по-уверени, критични и все пак отворени потребители на днешните технологии, като същевременно спомага за смекчаване на рисковете, свързани с безопасността, личните данни и неприкосновеността на личния живот.
ИИ е навсякъде, но наясно ли сме с това?
Много от ежедневните технологии използват и интегрират някакъв вид изкуствен интелект. Например, AI може да се използва за преобразуване на гласови команди в конкретно действие — като обаждане или включване на светлините. Често хората не са наясно, че такива системи събират лични данни за потребителя и неговите действия и не осъзнават как тези данни могат да бъдат използвани за множество цели (напр. обучение на нови алгоритми за ИИ, споделяне на данни с трети страни). Това естествено носи редица опасения за неприкосновеността на личния живот или безопасността.
Актуализацията
на DigComp 2.2 включва приложение с повече от 70 примера, които могат да помогнат на хората да разберат по-добре къде и в кои ситуации в ежедневието си могат да очакват да се сблъскат със системи с ИИ. Той също така дава практически примери за начините, по които нововъзникващите технологии са проникнали в ежедневието ни.
Как DigComp 2.2 може да ни помогне да разберем системите с ИИ?
В тази най-нова актуализация на рамката са дадени три вида примери, за да се помогне да се разбере какво правят системите с ИИ и какво не:
- Примерите за знания се фокусират върху факти, принципи и практики. Ангажирането със системите с ИИ по сигурен и безопасен начин означава да сте наясно с начина, по който търсачките, социалните медии и платформите за съдържание използват алгоритми с ИИ, за да генерират отговори, които са адаптирани към предпочитанията на отделния потребител (този номер ви помага да го намерите в публикацията: AI 03, стр. 78).
- Примери за умения, които се съсредоточават върху способността за прилагане на знания при взаимодействие със системи с ИИ. Това означава да знаете как да променяте потребителските конфигурации (например в приложения, софтуер, цифрови платформи), за да позволите, предотвратите или модерирате системата с ИИ от проследяване, събиране или анализиране на данни (например изключване на проследяването на местоположението на нашите телефони и т.н.). (AI 35, стр. 80.)
- Примерите за отношение са свързани с човешкото посредничество и контрол и показват разположение или нагласа за действие. Това означава да бъдете отворени за системи с ИИ, които помагат на хората да вземат информирани решения в съответствие с техните цели (напр. потребителят активно решава дали да действа по препоръка или не).
Всички примери са свързани със съществуващите компетентности на DigComp с идеята, че те ще помогнат на дизайнерите на учебни програми и доставчиците на обучение да опреснят съдържанието си на обучение и да илюстрират по-добре прилагането и интегрирането на нововъзникващите технологии в ежедневието.
Придобиване на доверие за справяне с фалшивите новини и дезинформацията
Новите теми в актуализацията засягат настоящите явления, които често засилват дезинформацията в платформите на социалните медии, като например филтърни мехурчета (пристрастност, причинена от алгоритъм, който ограничава информацията, която потребителят вижда въз основа на предишните си дейности) и ехо камери (ситуация, при която потребителите получават онлайн информация, която засилва съществуващите им възгледи, без да среща противоположни гледни точки). Примерите илюстрират също така дълбоки фалшификати и други автоматизирани форми на генерирано от ИИ съдържание.
Те също така се фокусират върху опасенията за неприкосновеността на личния живот, когато се занимават със системи с ИИ, които могат да споделят лични данни стрети страни и излагат основните въпроси, които трябва да зададем, преди да активираме софтуера за разпознаване на лица или цифровия асистент на нашия телефон.
Примерите на DigComp 2.2 за хора, взаимодействащи със системи с ИИ, имат за цел да нарисуват картина на днешния свят и да помогнат на хората да се ангажират уверено, критично и безопасно с ежедневните технологии, особено тези, задвижвани от ИИ. Друга цел е да се даде възможност на гражданите да контролират по-добре собственото си учене през целия живот, за да бъдат информирани за системите с ИИ и това, което наричаме „информация“ на всеки аспект от живота ни. Не на последно място, една от целите е да се помогне на хората да се ориентират в етични въпроси, свързани с цифровите практики — като тази за човешката автономност, която е в основата на много от ценностите на ЕС. Тези цели са в основата и на Плана за действие на Европейската комисия в областта на цифровото образование, който има за цел да подобри цифровите умения и компетентности на гражданите за цифровата трансформация.
Прочетете пълния доклад тук.
Друга предстояща работа в рамките на DEAP включва:
- Насоки за преподавателите относно етичното разглеждане на ИИ и данните
- За приемане на предложение за препоръка на Съвета относно подобряване на предоставянето на цифрови умения в образованието
За автора
Д-р Вуорикари е водещ изследовател за DigComp 2.2. Нейната работа се фокусира върху развитието на по-добро разбиране на знанията, уменията и нагласите, които помагат на гражданите да се ангажират уверено, критично и безопасно с цифровите технологии, включително системите с ИИ. Тя се присъединява към Съвместния изследователски център на Европейската комисия (JRC) през юли 2013 г. до август 2022 г. Тя е завършила образование (M.Ed през 1998 г. във Финландия), хипермедия (DEA през 1999 г. във Франция) и е получила докторска степен през 2009 г.
Относно JRC
Съвместният изследователски център е службата на Комисията за наука и знания. JRC наема учени, които да извършват научни изследвания, за да предоставят независими научни консултации и подкрепа на ЕС. Научният център на ЕС е основният уебсайт на JRC.
©Виачеслав Якобчук
Детайли
Таргет аудитория
Дигитални умения за всички
Дигитална технология/ категория
Изкуствен интелект
ПОПЪЛВА СЕ: Тук се помества заглавието на новината с главни букви; същото се помества в по-горната секция "ADD TITLE".
dd.mm.2023
ПОПЪЛВА СЕ: Тук се помества кратко обобщение, последвано от пълния текст за новината
Детайли
Уебсайт
www.digitalalliance.bg
Таргет аудитория
Дигитални умения за всички
Дигитални умения за работещи
Дигитални умения за ИКТ професионалисти
Дигитални умения в образованието
Дигитални умения за деца
Дигитални умения за публична администрация
Дигитална технология/ категория
Изкуствен интелект
Куберсигурност
5G