A GKI 2026. januári lakossági felmérése szerint a megkérdezettek 6%-a biztosan, 18%-a valószínűleg nagyobb összeget fog költeni lakóingatlanára a következő egy évben.
Sosem látott társadalmi káosz a küszöbön: hamarosan semmiben sem lehetünk biztosak abból, amit látunk, hallunk
Modern világunkban az egyik legértékesebb erőforrás az adat, amelyet a tudatos felhasználók egyre inkább igyekeznek védeni. A közösségi média platformok üzleti modelljei folyamatosan feszegetik a személyes adatokhoz fűződő jogaink határait, miközben a mesterséges intelligencia megjelenése új szintre emeli ezt a bizonytalanságot. Ki szabályozhatja ezeket a globális technológiákat, milyen eszközei vannak erre az államoknak vagy az Európai Uniónak, és egyáltalán létezik-e olyan kompromisszum, amely egyszerre szolgálja a felhasználók, a platformok és a társadalom érdekeit? Dessewffy Tibor digitális szociológussal, az ELTE Szociálpszichológiai Tanszékének habilitált egyetemi docensével arról beszélgettünk, miért van a szabályozás szinte törvényszerű késésben a technológiai fejlődéshez képest, hogyan ütközik a nemzetállami jogalkotás a globális techcégek erejével, és miért problematikus már maga az „arany középút” fogalma is. Az interjúban szó esik a politikai hirdetések tilalmáról, az AI-tartalmak ellenőrizhetőségéről, a valóságba vetett hit megingásáról, valamint arról is, milyen társadalmi következményekkel járhat egy olyan nyilvánosság, ahol az algoritmusok formálják a közbeszédet.
Pénzcentrum: A közösségi média platformokkal kapcsolatban régóta húzódó vita zajlik a jogi szabályozásról. Sok véleményt elhallgattatnak, oldalakat és profilokat tiltanak jogorvoslati lehetőség nélkül, miközben sok kártékony tartalom mégis teret kap. Kikényszeríthető az irányukba egy keményebb kontroll az államok által, ami még a platformoknak is megfelel, vagy nincs arany középút?
Dessewffy Tibor: A nehézséget az jelenti, hogy a szabályozás és a technológiai fejlődés mindig is nagyon fura időbeli viszonyban volt egymással. Mindig egy erős megkésettség volt a jellemző, és ezeknél a szofisztikált technológiai megoldásoknál ez még inkább így van. Az, hogy hogyan lehet őket szabályozni, egy kérdés, a betiltás vagy engedélyezés pedig egy másik - betiltani ezeket platformokat majdhogynem senki nem akarja, és ami még fontosabb: senki nem tudja. A probléma észlelése, majd utána az észlelt problémára való megoldás kidolgozása nagyon sok időt vesz igénybe. Viszont közben annyira gyorsan változik a technológia, hogy már egész máshogy fog kinézni az, amihez eredetileg hozzá akartunk nyúlni.
Mondok egy példát erre: az egyetemeken nagyon hosszú ideig küzdöttek a plagizálással. Vannak plagizációt kiszűrő szoftverek, abból végül az egyetem beszerzett egyet, azt kötelezővé tették, megszülettek az eljárások, stb...
Ezek a plagizáló szoftverek a már létező irodalmakat nézik, de az AI-ra teljesen alkalmatlanok, és mire megoldottunk egy problémát, addigra már rég ott volt egy másik, ennél sokkal nagyobb probléma. Ez az időbeliség.
A másik probléma a szabályozás kompetenciája, vagyis az, amit le tud fedni egy szabályozás. Ezek általában nemzetállami vagy nagyobb területi egységekre, mint az EU-ra vonatkozó szabályok. De ezek a globalizált technológiák és a globális techcégek nem nemzetállami keretek között működnek. Hogyan szabályozol egy Google-t, hogyan szabályozol egy Facebookot?
Megjegyzem, ez egy hatalmas érv az EU mellett. Ha valaki az EU-ból való kilépés gondolatával kacérkodik, akkor érdemes például azt mérlegelnie, hogy mondjuk Albániának vagy Szerbiának, mint pármilliós kis országnak milyen lehetőségei vannak a nagy techcégekkel szemben. Az EU-nak valamivel nagyobb a mozgástere, bár az ő lehetőségeik is korlátozottak.
És a harmadik dolog, amit mondani akartam: nincs arany középút. Ez szerintem azért aggályos egy picit, mert arra, hogy mi az arany, vagy mi a középút, nagyon-nagyon eltérő elgondolások vannak. A világon nagyon sok helyen irigykedve tekintenek az EU-ra, mert itt vannak a legkomolyabb GDPR és egyéb, digitális jellegű szabályok. Ugyanakkor az is igaz, hogy ezek a szabályok részben az okai annak, hogy az EU a vállalkozások, a digitális startupok szárnyalásával, sikerével adós marad. Nem nagyon vannak globális sikertörténetek az EU-n belül. És ezt nagyon sokan a szabályozás meglétével magyarázzák, ami megfojtja a különböző kísérleteket.
Nincs egy olyan modell, amire azt lehet mondani, hogy na, ez az ideális. Tehát az időbeliség, a térbeliség és a különböző modellek egymásmellettiségе miatt elég szkeptikus vagyok azzal kapcsolatban, hogy ezeket a kérdéseket szabályozással meg lehet-e oldani, de ez nem jelenti azt, hogy nem kell rá törekedni.

Előbb már volt szó a GDPR-ról, de ezen kívül még néhány más intézkedés is született az elmúlt időszakban, például a politikai hirdetések betiltása, és ha jól tudom, AI tartalmak esetében is már van, ahol jelezni kell annak az eredetét. Ezek mennyire vannak betartva jelenleg a platformok által? Jöhet további szabályozás?
A politikai hirdetések betiltása úgy nézett ki, hogy a Facebook és a Google úgy döntött, hogy nem fogja teljesíteni a feltételeket, ezért Európában nem közöl ilyeneket. És akkor megint az előbb arról beszéltem, hogy milyen nehéz állami szinten szabályozni ezt, megfogni fogalmilag ezeket a jelenségeket, de ugyanilyen problémák vannak a platformok oldaláról is. Tehát mondjuk a politikai hirdetéseknél azt, hogy egy politikai párt vagy egy országos politikus ne hirdessen, azt könnyű megakadályozni. De azért az látható, hogy proxy oldalaknak, kamu oldalaknak a sokasága jön létre és használja a politikai üzeneteket, amiket viszont nem tud kiszűrni tartalmi alapon a Facebook, és azt hiszem, hogy komoly aggályokat is vetne fel, hogyha social media cégek egyéni oldalaknak a tartalmaiba beavatkoznának pusztán azért, mert politikailag tételezett üzenetek vannak.
Már eleve a gyűlöletkeltő üzeneteknek a cenzúrája, vagy megfékezése az is egy nagyon komoly szabályozási probléma. Egyben rávilágít az AI-nak is a korlátaira, tehát ezeket nyilván, bár rengeteg, több tízezer tartalomszűrő dolgozót alkalmaztak korábban, ezeket ideális esetben AI-jal lehetne megoldani, és ez egy önbevallás a cégek részéről, hogy nem tudják ilyen jól megoldani, hogy ezeket az üzeneteket kiszűrjék.
Maradjunk az AI-nál. Tömegesen terjednek az ilyen típusú tartalmak, szinte kontrollálatlanul. Sokan azt tartják problémának, hogy valódinak hiszünk valamit, ami mesterséges intelligenciával készült. De mi van, ha ennek a fordítottja történik az lehet társadalmilag még nagyobb probléma, amikor már a valóságba vetett hitünk is meginog?
Ennek az érmének mindkét oldala nagyon fontos. Évtizedek óta tart egy erősödő trend: a társadalmi bizalom folyamatos megroppanása szinte minden intézményben, így a médiában, a politikában, az egyházakban, gyakorlatilag mindenhol jelen van. Ez a bizalomvesztés meredeken zuhan, és nem független az internettől sem. A korábban szűrt, szerkesztett, kontrollált nyilvánosság helyét átvette a vélemények közvetlen, ellenőrizetlen áramlása. Ebbe a folyamatba illeszkedik az is, amire utalsz: hogy ma már szinte bármire rá lehet mondani, hogy deepfake vagy fake news. Ez tovább erodálja a valóságba vetett hitet, és szétzilálja a valóság közös definícióját.
Ma már bármilyen alternatív magyarázat vagy valóságértelmezés felléphet azzal az igénnyel, hogy azt fogadjuk el, és a saját buborékjában ezt sokan el is fogadják érvényes érvelésként.
A mesterséges intelligencia esetében egy nagyon is valós kockázat az, hogy innentől kezdve bármire, ami nem tetszik, rá lehet sütni, hogy hamis. Az , hogy ez mennyire specifikusan az AI-ból fakad, azt nehéz megmondani - az is lehet, hogy ez a technológia csak felerősíti a már meglévő tendenciákat. Nem biztos, hogy innen ered a probléma, az viszont igen, hogy nem javít rajta.

Az AI-ra nézve nekem az a fő benyomásom, hogy kicsit olyan, mintha egy sci-fi filmben lennénk, és hirtelen olyan kezekbe adtak volna egy nagyon komoly halálos fegyvert, amikbe nem való. Tömegesen hozzáférhető bárkinek, ráadásul ingyen. Ahhoz képest a hatása elég nagy...
Mint benyomás, ez teljesen érthető. Ha most kifejezetten az AI-ról beszélünk, és nem az egész digitális diszrupcióról (digitális teremtő rombolás) akkor fontos látni, hogy még messze nem tartunk ott, hogy pontosan átlássuk a társadalmi hatásait és következményeit. Maga a technológia csak az egyik tényező; legalább ilyen meghatározó lesz az is, hogyan reagál rá a társadalom. Erre van egy elég szemléletes példám.
Az elmúlt 15–20 évben meghatározó trend volt a fiatalok körében, hogy az ismerkedés, a párválasztás, a „dating” egyre inkább áttevődött az online térbe. Azt gondoltuk, ez egy megállíthatatlan folyamat. Ehhez képest mit látunk most? A Match Group, amely gyakorlatilag az összes nagy randioldalt birtokolja az angol nyelvű világban, részvényárfolyama korábbi értékének nagyjából tizedére esett vissza. Ez szorosan összefügg azzal, hogy az emberek elkezdték nem használni ezeket a platformokat. Hiába van Tinder és még számos más alkalmazás, sokan egyszerűen lejönnek róluk. Igaz, ez két irányba történik: egyrészt valódi tendencia, hogy újra felfedezik a személyes kapcsolatok jelentőségét; másrészt viszont, sokan elmennek a digitális pornó vagy az OnlyFans irányába.
Ha még egyet hátralépünk: az AI egy teljesen új tudáskonstrukciós paradigmát hoz. Olyan léptékű változásról beszélünk, mint régen a könyvnyomtatás, vagy az internet megjelenése a 90-es években. Ezek a technológiák mindig alapjaiban zilálják szét a társadalmi viszonyokat, és gyakran tragédiákkal is járnak.
A könyvnyomtatás például hozzájárult a harmincéves háborúhoz, amelyben tízmilliók haltak meg Európában. Ilyen következményekkel az AI esetében eddig nem találkoztunk, de őszintén szólva azt sem tudjuk pontosan, hogy mi is az az AI, amikor így beszélünk róla. Annyira sokféle felhasználási módja van, és olyan erős valóságátalakító potenciált hordoz, hogy jelenleg még azt sem látjuk tisztán, pontosan milyen jelenségről beszélünk.
Az viszont biztos, hogy rengeteg problémát fog felvetni.
Hosszú távon milyen veszélyeket rejt magában, hogy maguk az AI-alkotók sem értik pontosan saját rendszereik működését? Mennyire reálisak a disztópikus félelmek a valós kockázatokhoz képest?
Intellektuális szempontból valóban hatalmas különbség az eddigi technológiákhoz képest, hogy azok esetében az alkotók pontosan tudták, hogy mit miért csinálnak, és az milyen eredményekhez vezet majd. A mostani, black box elven működő, nagy generatív modelleknél viszont tényleg az a helyzet, hogy bemegy egy input a fekete dobozba, és figyeljük, mi jön ki belőle.
Vannak ugyan kísérletek és kutatások, amelyek „reverse engineering-gel” próbálják visszafejteni a működést. Kicsit úgy, mint az agykutatásban, ahol azt próbáljuk megérteni, melyik rész miért és hogyan működik - ez persze rendkívül nehéz feladat. Egy előremutatóbb irány az lehetne, ha legalább azt kontrollálnánk, milyen anyagokon tanítják be ezeket a modelleket. Persze ez se fekete-fehér, hiszen rengeteg különböző modell létezik - ahogy a közösségi médiánál sem csak a Facebookra vagy az Instagramra gondolunk, hanem akár egy kis egyetemi fórum is az. Ugyanígy lehetnek olyan nyelvi modellek, amelyeket kifejezetten kontrollált módon, meghatározott célokra tanítanak be.
Ilyenkor sem tudjuk pontosan, mi fog történni és miért, de legalább azt kézben tarthatjuk, hogy min tanul a rendszer. A jelenlegi egyik fő probléma abból fakad, hogy óriási verseny zajlik: a számítási kapacitás exponenciálisan nő, és ezzel együtt a betanításhoz felhasznált adatmennyiség is.
Mindent belezúdítanak, amit csak elérnek. Nemcsak a magas irodalmat, hanem az interneten található összes borzalmat is, amit mi, felhasználók előállítunk.

Úgy látom, mintha két vonal rajzolódna ki az AI programok világában. Az egyik a mainstream megközelítés, amely meghúz egyfajta vörös vonalat és nem válaszol meg bizonyos kérdéseket. De például Elon Musk szoftverénél sokkal kevesebb korlát van húzva. Melyik lehet a jobb megközelítés? Jó, ha húzunk határokat, vagy inkább az lenne jobb, ha minél jobban fejlődhetne a technológia, hogy tudjuk, mi vele a gond?
Ez egy normatív kérdés, vagyis nem arról szól, hogy általában mi lenne „a helyes”, hanem arról, hogy ki milyen értékrendből indul ki. Én csak azt tudom megmondani, hogy szerintem mi lenne kívánatos, de ez nyilván összefügg azzal, ahogyan a világot látom. Szerintem attól, hogy valami technológiailag lehetséges, még egyáltalán nem szükségszerű, hogy azt meg is kell valósítanunk. Erre most a legkézenfekvőbb példa hogy technológiailag lehet gyerekpornót generálni AI-jal. De ez nyilvánvalóan olyan terület, ahol nem szeretnénk, hogy a technológia „szabadon fejlődjön”. Ha ezt normaként elfogadjuk, akkor már csak az a kérdés, hogy ezt a nem támogatandó teret milyen szélesre húzzuk meg.
Elon Musk modellje egyébként nem valami underground alternatíva, ő a világ leggazdagabb embere, tehát definíció szerint is mainstream. De abban igazad van, hogy különböző megközelítések léteznek. Amit ő csinál, az egy nagyon jelentős, százmilliók számára elérhető modell. Az pedig sajnos az emberi természet része, hogy vonzódik az extremitásokhoz.
Jelenleg egyébként zajlik több szerzői jogi per is, például a New York Times is perli ezeket a modelleket. És őszintén szólva, én sem lennék kibékülve azzal, ha az én hangommal vagy arcommal – még ha nem is vagyok sztár –, bárki azonosítható videókat vagy tartalmakat készíthetne.
Ez nem csak hírességeket érint, hanem az átlagembereket is.
Ez a szólásszabadságot érintő kérdés az egyik, ha nem a legnagyobb konfliktus jelenleg Európa és Amerika között. Márpedig ha a most említett témát szólásszabadsági kérdésként keretezzük, akkor a Grokhoz hasonló, Musk-féle megközelítéseknek is lesz tere.
Azt tudom mondani, hogy még túl korai lenne eldönteni, melyik a „jobb” út. Közben viszont az is látszik, hogy Oscar-díjas színészek, pl. Scarlett Johansson számára ez nagyon is húsbavágó kérdés, szó szerint és anyagilag is. Nekik nagyon nem mindegy, hogy a brandjüket, arcukat, fizimiskájukat felhasználják-e ezekben a modellekben - ahogy arra már megtörtént, nem is egy példa.
NULLA FORINTOS SZÁMLAVEZETÉS? LEHETSÉGES! MEGÉRI VÁLTANI!
Nem csak jól hangzó reklámszöveg ma már az ingyenes számlavezetés. A Pénzcentrum számlacsomag kalkulátorában ugyanis több olyan konstrukciót is találhatunk, amelyek esetében az alapdíj, és a fontosabb szolgáltatások is ingyenesek lehetnek. Nemrég három pénzintézet is komoly akciókat hirdetett, így jelenleg a CIB Bank, a Raiffeisen Bank, valamint az UniCredit Bank konstrukcióival is tízezreket spórolhatnak az ügyfelek. Nézz szét a friss számlacsomagok között, és válts pénzintézetet percek alatt az otthonodból. (x)

Egyre több cég tiltja az érzékeny adatok megosztását AI-rendszerekkel. Ez tényleg indokolt? Milyen biztonsági veszélyeket rejt magában pl. a Chat GPT?
A hackertámadásokból nagyon súlyos következmények származhatnak, elég csak a közművekre gondolni. Nem is kell fegyverrendszerekig elmenni, már az áramellátás megzavarása is katasztrofális lehet. Ezen támadások alól sajnos a generatív szoftverek sincsenek biztonságban.
És ahogy azt korábban elmondtam: mivel általában nem értjük pontosan ezeknek a rendszereknek a működését,
a nagy AI-modellek különösen sebezhetőek a rosszindulatú támadásokkal szemben.
Velem például egyszer megtörtént, hogy elkezdett oroszul beszélni a ChatGPT. Fogalmam sem volt, miért váltott át, hiszen én nem kértem erre. Kikapcsoltam, visszakapcsoltam, és elmúlt, de elgondolkodtató volt. Ugyanakkor ezt inkább hibának tekintem, nem szándékos funkciónak.
Ami számomra érdekes, hogy sokszor olyan dolgok miatt hibáztatjuk a technológiát, amelyek valójában belőlünk fakadnak.
Ugyanakkor van egy olyan jelenség is, hogy a modell „megtanul téged”. Ezt érdemes elválasztani attól, hogy adatok szivárognak ki vagy feltörik a rendszert.
Az, hogy a modellek személyre szabják a működésüket, egyszerre előny és probléma. És ez nemcsak akkor fordul elő, ha valaki saját „Custom GPT-t” készít, hanem már az alapbeállítások is úgy működnek, hogy a rendszer megjegyzi, milyen típusú válaszokat kedvelsz, milyen témák érdekelnek. Ha kosárlabda-rajongó vagy, kosárlabdás példákat fog hozni akkor is, ha ezt nem kéred külön. Ez nemcsak, hogy technológiailag lehetséges, de elvárás is, legalábbis úgy tűnik, a felhasználók igénylik, mert kényelmes nekik, ha a rendszer nem minden alkalommal nulláról indul, hanem „ismer” minket.
A véleménybuborékok már az AI-robbanás előtt is egy sokak által tárgyalt, komoly problémának tűnt. Ez idővel még durvábbá válhat egy olyan világban, ahol a mesterséges intelligencia folyamatosan pozitív visszacsatolást küld, miközben az eredeti gondolatokból, véleményekből egyre kevesebb van?
Ez egy nagyon nehéz kérdés, és valóban óriási probléma. De ha egy kicsit megfordítanám a nézőpontot, azt is mondhatnám: most válik igazán „demokratikussá” a nyilvánosság. Most történik meg az, hogy az elitek – szerkesztők, véleményvezérek – korábbi szűrőszerepe teljesen átalakul, és gyakorlatilag bárkiből lehet olyan szereplő, aki szűretlenül artikulálja a véleményét.
Ez elsőre jól hangzik, de valójában nagyon erős polarizációhoz és ezen belül radikalizálódáshoz vezet.
Ebben óriási szerepe van az algoritmusoknak is: azok a tartalmak kapnak nagyobb láthatóságot, amelyek erős reakciót váltanak ki. Márpedig ami nagy reakciót vált ki, az többnyire dühöt, haragot, felháborodást generál. Ezért van az, hogy az online diskurzus sokkal vadabb, agresszívebb és szélsőségesebb, mint a valódi, személyes beszélgetések, amelyek még mindig emberibbek, civilizáltabbak és konstruktívabbak tudnak lenni.
A közösségi média megjelenése óta ezek a társadalmi és politikai hatások nagyon jól láthatók. A kérdés az, hogy a társadalom képes lesz-e ezt kezelni, megszokni, beépíteni a működésébe.
Van erre egy példa: amikor bevezették a rádiót, Orson Welles „Világok harca” rádiójátéka tömegpánikot okozott, mert az emberek még nem szocializálódtak hozzá a rádióhoz, mint médiumhoz. Ma már szinte lehetetlen lenne hasonló pánikot kelteni egy rádióműsorral. Tehát van okunk bízni abban, hogy idővel kialakulnak azok az ellensúlyozó mechanizmusok, amelyek segítenek értelmezni a világot.
De nem győzöm ismételni magam: az eléggé aggasztó, hogy mennyire elvadult a hangnem, mennyire durvává vált a közbeszéd, és milyen nehéz civilizált vitát folytatni. Ez az egyik nagy probléma, a másik pedig egy meta-hatás: a figyelem fókuszának beszűkülése.
Nemcsak a hangnem és a polarizáció változott meg, hanem maga a vita formája is. Egyre inkább rövid, sarkos, leegyszerűsített állításokra épül minden, mert egyre nehezebb elvárni, hogy valaki akár egy kétflekkes cikket elolvasson. A könyvolvasásról nem is beszélve, ami lassan már szinte „perverziónak” számít.
Mióta létezik az internet, mindig voltak szubkultúrák. Ma vannak olyan mozgalmak, szubkultúrák, akár platformok szintjén, amik próbálnak ezeknek a folyamatoknak ellentartani, és egy józanabb, felhasználóbarátabb, emberbarátabb környezetben működni?
Jó a megfogalmazás ez, hogy szubkultúra, mert valóban szubkultúrákról beszélünk, és az is tény, hogy ezek mindig is léteztek, egyébként már jóval az internet előtt is. Fontos látni, hogy ezek az alternatív közegek értékeket, életmodelleket, működési mintákat mutatnak fel, és ebből a szempontból nagyon is jelentősek. Ugyanakkor az össztársadalmi hatásuk esetleges és korlátozott.
Vannak technológiai alternatívák is. Ilyen például a Mastodon, egy nyílt forráskódú, decentralizált platform, amelyen naponta körülbelül egymillió ember aktív, és nagyjából tízmillió felhasználója van. Tehát léteznek olyan megoldások, amelyek tudatosan próbálnak eltávolodni a Big Tech logikájától.

Emellett vannak civil és politikai mozgalmak is, amelyek egyre hangosabban sérelmezik a nagy platformok működését.
A nagypolitika talán egyszer ráébred arra a problémára, hogy néhány nagyon furcsa, nagyon gazdag fehér férfi képes globális életviszonyokat meghatározó struktúrákat létrehozni.
Létezik például a People vs. Big Tech nevű kezdeményezés, amely több mint 140 civil szervezet összefogása, és kifejezetten ezekkel a kérdésekkel foglalkozik.
És ott vannak az egyéni életstratégiák. Én mindig arra biztatom a diákjaimat, hogy gondolják végig, valóban olyan mértékben kell-e kitenniük magukat a social mediának, amennyire, vagy esetleg van miből lefaragniuk. Nem lehet kötelezővé tenni, de sokszor látom, hogy egy kurzus végén odajön valaki, és azt mondja: „Lejöttem erről meg arról, és jobb lett az életem.” Ez egyéni döntés, és talán nem is olyan nehéz, mint elsőre tűnik.
Vannak praktikus lépések is: például a Signal használata a Messenger vagy a WhatsApp helyett. Ezek megvalósítható dolgok, bár némi erőfeszítést igényelnek. A Signal felhasználói száma eltörpül a Messengeréhez képest, de ettől még létező alternatíva. Ugyanez igaz a VPN-használatra is: ha anonimizálod az IP-címedet, akkor megakadályozod, hogy a cégek tovább építsék a rólad szóló profilokat.
De szerintem a legfontosabb egyéni szinten az, hogy az ember minél többet találkozzon a barátaival. Kilépjen az online térből, beszélgessen, focizzon, sörözzön, veregesse meg a másik hátát. A fizikai jelenlét, a valódi emberi kapcsolatok olyan ellensúlyt jelentenek, amelyet semmilyen algoritmus nem tud pótolni.
Szerencsés esetben elérhető az az állapot, hogy az ember élvezi a virtuális lét előnyeit, miközben minimalizálja a hátrányait.
Ehhez viszont az kell, hogy a képernyőn túli világot is életben tartsuk és működtessük.
Címlapkép és fotók: Stiller Ákos
-
Elfogyott a munkaerő? Ilyen szakembereket keresnek most leginkább a cégek
Hiába a versenyképes bér, egyre több pozícióra egyszerűen nincs jelentkező.
-
Több mint 22 milliárd forintot takarítottak meg a magyarok tavaly a Lidl Plus-al
A magyar vásárlók 85%-a minden vagy majdnem minden vásárlásnál használja a hűségkártyáját vagy mobilalkalmazását, míg mintegy 60%-a több programot is aktívan igénybe vesz.
-
Negyedik éve piacvezető a Toyota Magyarországon (x)
A Toyota 2025-ben is megőrizte piacvezető helyét Magyarországon.
-
Taxizás stresszmentesen? Mutatjuk a leghasznosabb funkciókat! (x)
Kényelem és biztonság minden út során: fedezd fel a Bolt beépített biztonsági funkcióit!
Agrárium 2026
Retail Day 2026
Planet Expo és Konferencia – A tiszta energia jövője
Planet Expo és Konferencia – Agrárium a klímaváltozás szorításában







