Informacja

Drogi użytkowniku, aplikacja do prawidłowego działania wymaga obsługi JavaScript. Proszę włącz obsługę JavaScript w Twojej przeglądarce.

Tytuł pozycji:

Halucynacje chatbotów a prawda: główne nurty debaty i ich interpretacje

Tytuł:
Halucynacje chatbotów a prawda: główne nurty debaty i ich interpretacje
Chatbot Hallucinations vs. Truth: Mainstream Debates and Their Interpretations
Autorzy:
Jan Kreft
Monika Boguszewicz-Kreft
Barbara Cyrek
Data publikacji:
2024
Tematy:
chatbots
disinformation
artificial intelligence
chatboty
dezinformacja
sztuczna inteligencja
Dostawca treści:
CEJSH
Artykuł
  Przejdź do źródła  Link otwiera się w nowym oknie
Generative artificial intelligence (AI) systems are able to create content by applying machine learning to large amounts of training data. This new data may include text (e.g. Bard by Google, LLaMa by Meta or ChatGPT by OpenAI) and visuals (e.g. Stable Diffusion or DALL-E by OpenAI) and audio (e.g. VALL-E by Microsoft). The level of sophistication of this content may make it indistinguishable from human work. However, chatbots are characterized by the so-called hallucinations, which are a new type of disinformation. The aim of the article is to identify the main trends in the debate on the effects of the use of artificial intelligence, with particular emphasis on disinformation involving chatbots in the media environment.

Generatywne systemy sztucznej inteligencji (SI) są w stanie tworzyć treści medialne poprzez zastosowanie uczenia maszynowego do dużych ilości danych szkoleniowych. Te nowe dane mogą obejmować tekst (np. Bard firmy Google, LLaMa firmy Meta lub ChatGPT firmy OpenAI) oraz elementy wizualne (np. Stable Diffusion lub DALL-E OpenAI) i dźwięk (np. VALL-E firmy Microsoft). Stopień zaawansowania tych treści może czynić je nieodróżnialnymi od twórczości człowieka. Chatboty cechują się jednak tzw. halucynacjami, które w istotnej części są nowym rodzajem dezinformacji. Celem podjętych badań jest identyfikacja głównych nurtów debaty poświęconej skutkom wykorzystania sztucznej inteligencji ze szczególnym uwzględnieniem dezinformacji z udziałem chatbotów w środowisku mediów. W badaniu przyjęto metodę badawczą systematycznego przeglądu literatury ograniczającą m.in. błąd selekcji. Interpretacja głównych nurtów debaty skłania do wniosku, że dezinformacja chatbotów w postaci ich halucynacji jest znacząca pod względem skali, jest optymalizowana i personalizowana oraz ma istotny potencjał erodowania zaufania społecznego.

Ta witryna wykorzystuje pliki cookies do przechowywania informacji na Twoim komputerze. Pliki cookies stosujemy w celu świadczenia usług na najwyższym poziomie, w tym w sposób dostosowany do indywidualnych potrzeb. Korzystanie z witryny bez zmiany ustawień dotyczących cookies oznacza, że będą one zamieszczane w Twoim komputerze. W każdym momencie możesz dokonać zmiany ustawień dotyczących cookies