• Kontakt
  • Politika privatnosti i kolačića
  • Pišite za nas
  • Uvjeti korištenja
  • Oglašavanje
Utorak, 17 veljače, 2026
TehnoHR
  • Home
  • AI
  • Automatizacija
  • Cybersigurnost
  • Računala & Mreže
    • Gaming
    • Baza znanja
    • Help Desk
  • Tehnologija
  • Tehnokracija
  • Znanost
No Result
View All Result
TehnoHR
  • Home
  • AI
  • Automatizacija
  • Cybersigurnost
  • Računala & Mreže
    • Gaming
    • Baza znanja
    • Help Desk
  • Tehnologija
  • Tehnokracija
  • Znanost
No Result
View All Result
TehnoHR
No Result
View All Result
Home AI

Generativna umjetna inteligencija – rizici upotrebe na radnom mjestu

by TehnoHR
in AI, Cybersigurnost
Reading Time: 3 mins read
0
generativna-umjetna-inteligencija

Photo credit: pixabay.com

Share on FacebookShare on Twitter

Posljednjih nekoliko mjeseci svjedočimo neprestanom rastu interesa za generativnu AI. Uslijed takvog enormnog rasta, potrebno je zastati i sagledati sve moguće implikacije upotrebe AI sustava. Etičke, moralne, legalne, sigurnosne implikacije su goleme, osobito za velike korporacije i privatne korisnike.

Slične Teme

Što su AI asistenti i čemu služe?

Snapchat ne radi. Srušio se zbog prekida u radu Amazon Web Services (AWS)

Gemini AI – ili kako je Google postao refleksija iskrivljene stvarnosti

Jedna od najvećih zamjerki trenutnom načinu razvoja generativne AI je netransparentnost modela. Već smo pisali o rizicima upotrebe AI sustava, nelegalnom eksploatiranju intelektualnog vlasništva, i sličnim problemima. Netransparentnost je, sudeći po izjavama stručnjaka, ipak najveći problem jer onemogućuje znanstvena i druga istraživanja modela što pak limitira mogućnost pre emptivnog djelovanja u područjima visokog rizika.

Najbolji primjer netransparentnosti su svakako OpenAI-ev GPT i Google-ov Bard koji su razvijeni u potpunoj tajnosti a kompanije ne žele otkriti koji podatci su korišteni za trening modela.

Veliki problem bi moglo biti curenje informacija putem chat klijenata, kao što je bio slučaj sa Samsungom. Ovo je velik problem za privatne osobe i kompanije jer osjetljivi podatci mogu završiti u rukama konkurencije ili se koristiti za napade na računala i sustave.

Kako navode iz Oxylabsa, tvrtke specijalizirane za kibernetičku sigurnost, zaposlenici mogu i nehotice otkriti vrlo bitne tajne podatke dok koriste chat klijente poput ChatGPT 4 ili slične, što predstavlja ogroman sigurnosni rizik. Problem je što OpenAI, Google, i druge kompanije ne dozvoljavaju pregled svojih sustava kako bi eksperti za sigurnost mogli utvrditi potencijalne rizike i mane sustava, što pak utječe na iskoristivost sustava. Naime, niti jedna kompanija ne želi preuzeti rizik da će osjetljivi podatci biti spremljeni ili podijeljeni s osobama van organizacije, a nemaju načina da se osiguraju protiv tog rizika.

OpenAI je vrlo štur i ne pruža detaljne informacije o procesu rukovanja korisničkim podacima. To je  izazov za sve koji žele smanjiti rizik od curenja informacija. Sve ovo znači da kompanije moraju ulagati sredstva u konstantno praćenje aktivnosti zaposlenika i implementaciju upozorenja za uporabu generativnih AI platformi.

Još jedan problem je učestalo haluciniranje modela. OpenAI je nedavno priznao da njihov GPT-4 još uvijek pruža netočne informacije na neke upite. Ako radite na problemu i tražite rješenje a GPT pruži informaciju koja je potpuno kriva, u odsutnosti pravilnih kontroli može doći do velike štete i posljedično rizika za kupce.

Posljedice prelaze interese tvrtki te se mogu gledati na nivou društva. Na primjer, Stack Overflow je zabranio korištenje ChatGPT-a zbog nepreciznosti, što je vodilo do loših rezultata za krajnje korisnike.

Korištenje AI rješenja nosi i značajan pravni rizik. Tako je GitHub-ov Copilot već suočen s tužbama zbog uključivanja zaštićenih kodova iz javnih i otvorenih repozitorija bez odobrenja autora.

Iako organizacije ne mogu postići potpunu kontrolu, svijest i odgovornost pojedinaca su ključni. Edukacija o potencijalnim rizicima povezanim s generativnim AI rješenjima je iznimno bitna za poboljšanje opće sigurnosti upotrebe.

Vodeći stručnjaci, organizacije i pojedinci moraju surađivati kako bi riješili probleme vezane uz privatnost podataka, točnost i pravne rizike generativne AI tehnologije na radnom mjestu.

Tags: cyber sigurnostgenerativna AI
Share1Tweet1

Možda Vas Zanima!

Što su AI asistenti i čemu služe?

by TehnoHR
28/10/2025
ai-asistenti

Zamislite se u situaciji da ste ultra mega super uspješni. Imate brdo novca, gomilu poslovnih partnera, a samim time i obaveza. Kako bi najoptimalnije iskoristili svoje vrijeme, potrebna...

Pročitaj višeDetails

Snapchat ne radi. Srušio se zbog prekida u radu Amazon Web Services (AWS)

by TehnoHR
20/10/2025
snapchat-se-srušio

Danas je došlo do masovnih prekida u radu nekoliko servisa. Snapchat ne radi, srušio se u cijelom svijetu, dok je sporadično dolazilo do prekida u radu Amazona, Alexa,...

Pročitaj višeDetails

Gemini AI – ili kako je Google postao refleksija iskrivljene stvarnosti

by TehnoHR
25/02/2024
photo credit: google.com

Svi ste vjerojatno već čuli za novi LLM koji Google naziva Gemini AI. Nastavljajući se na Bard, Gemini nudi nove mogućnosti.

Pročitaj višeDetails

Na MIT-u se razvija sinaptičko računalo koje kopira ljudski način razmišljanja

by TehnoHR
24/12/2023
mit-sinaptičko-računalo

Znanstvenici s MIT-a razvili sinaptičko računalo koje u potpunosti imitira ljudski način razmišljanja što ubrzava izvršavanje zadataka.

Pročitaj višeDetails

Što znači odlazak Sam Altmana iz OpenAI i naknadni povratak!

by TehnoHR
24/11/2023
sam-altman-open-ai

Sam Altman nije više dio OpenAI, te je pronašao novu poziciju u novostvorenom AI odjelu unutar Microsofta.

Pročitaj višeDetails
Slijedeći post
projekt-DART-udar

NASA uspjela u testu obrane od udara asteroida – projekt DART skrenuo putanju asteroida

Odgovori

Vaša adresa e-pošte neće biti objavljena. Obavezna polja su označena sa * (obavezno)

O NAMA

https://tehnohr.com

Sve o umjetnoj inteligenciji, kibernetičkoj sigurnosti i tehnologiji

Oznake

ai ai asistent ai generator slika ai generirane slike ai umjetnost android apple arheologija automatizacija chatbot chatgpt Chat GPT CL0P crne rupe cyber sigurnost cybersigurnost društvene mreže Europska Unija fizika generativna AI google iPhone 15 kibernetička sigurnost kontekstualna umjetna inteligencija kvantna fizika marvel meta microsoft nasa OpenAI primjena umjetne inteligencije računala i mreže reddit regulacija AI roboti snapchat Snowflake svemir tehnologija threads twitter umjetna inteligencija whatsapp wordpress znanost

Izbornik

  • Kontakt
  • Politika privatnosti i kolačića
  • Pišite za nas
  • Uvjeti korištenja
  • Oglašavanje

Newsletter

Ako želite primati tjedni pregled vijesti o AI, tehnologiji i znanosti, pretplatite se na naš newsletter. Nećemo Vas gnjaviti reklamama!

© 2023 TehnoHR - sva prava pridržana

No Result
View All Result
  • Home
  • AI
  • Automatizacija
  • Cybersigurnost
  • Računala & Mreže
    • Gaming
    • Baza znanja
    • Help Desk
  • Tehnologija
  • Tehnokracija
  • Znanost

© 2023 TehnoHR - sva prava pridržana