Mesterséges intelligencia a könyvtárban

Posted by zondaz - július 1st, 2018

Paradigmaváltás, fenyegetés vagy megoldás?

A mesterséges intelligenciára izgalmas, de a könyvtárakat nem igazán érintő fejlődési irányként gondoltunk a nagyjából 50 évvel ezelőtti kezdetektől. Később néha felvillant az érdeklődésünk elsősorban a nagyarányú információnövekedés miatt, de általában kicsit utópiaként kezeltük a kérdést.

Noha a könyvtári szakterületen folyamatosan aktuális volt az adatok és információk gépi azonosítása, felismerése és keresése, könyvtári szempontból átütő eredmények csak a közelmúltban, az utóbbi 3 évben születtek. A természetes nyelvi keresés, a beszédfelismerés, a gépi tanulás programjai meghozták az első sikeres alkalmazásokat, pl. az ún. chatbotokat, könyvtári robotokat, gépesített asszisztensi funkciókat. A természetes nyelven alapuló információkezelés első példái (pl. a Semantic Scholar) nyomán felmerül a kérdés, vajon a strukturált szemantikai adathálózatok és adatformátumok átléphető fejlődési iránnyá válnak-e, vagy inkább jelentős, nélkülözhetetlen alapot szolgáltatnak a természetes nyelvre épülő információ feldolgozásnak?

A keresés dilemmái – a teljesség és pontosság együttállásának problémái

A korábbi természetes nyelvi keresők tapasztalatain okulva nem véletlen, hogy a könyvtárosok sokat foglalkoznak az adatok egységesítésével és a nyelvi struktúrák létrehozásának megalapozásával. Az igen drága külföldi CMS rendszerek, pl. a Documentum, a Filenet, vagy az Autonomy szabad szöveges kereső (amelyet pl. olyan cégek használtak, mint a Reuters, BBC, stb.), nem hozták meg a könyvtári keresésben követelményként megfogalmazott igénynek megfelelő eredményt a teljesség és pontosság együttes érvényesülésére. A „kvázi” megfeleléssel sohasem elégedtünk meg, és nem fogadtuk el azt, hogy a teljes szövegű keresésnél ez a számunkra fontos követelmény nem tud teljesülni, holott nyilvánvaló, hogy a szavak előfordulásának gyakorisága alapján a tartalom nem jellemezhető pontosan. Míg a formalizált és strukturált adatbázisoktól elvárható, hogy pontos authority adatok mellett mindkét kívánalom teljesüljön, addig a szövegalapú, asszociációs és más rokonsági alapon működő keresőktől nem várhattuk jogosan ugyanazokat az eredményeket, és nem ismertük el eléggé ezeknek az eszközöknek más irányú és más célra használható előnyeit.

Szemantikus adatfeldolgozás digitális adathálózatokon

Továbbra is fennálltak azok a keresési problémák, amelyeknél világosan látható volt, hogy a keresett kifejezések előfordulásainak kimutatása nem nyújtja megfelelő szinten a tartalom jellemzését. Nem nélkülözhetők a vektor analízis, a statisztika, a klaszterálás stb. elemzési módszerei, és ezek együttes alkalmazásaival is csak közelítő eredményeket érhetünk el.

Időközben beindult a digitalizálás, és hatalmas elektronikus és digitális állományok keletkeztek különféle tárolókon, amelyekhez sorra születtek a kereső motorok. A nem strukturált tartalmak 80 %-a nehezen kereshető az adatok mélyén – ez sokszor elhangzott, a strukturálásra képtelenség lett volna erőforrást és technológiát biztosítani a könyvtárakban. Nagyvállalati környezetben a BI – business intelligence eszközrendszere terjedt el az üzleti adatok mély elemzésére, kutatására, és előrejelzések készítésére – igen drága informatikai eszközök és folyamatos matematikai algoritmusok készítésének igényével.

A növekvő információtömeg nyomasztóan hatott az információ menedzsment intézményekre a kezdeti pontatlan kereső eszközök miatt. A könyvtárakban a növekvő információmennyiség strukturálása, a keresőnyelvek aktualizálása, az adatformátumok fejlesztése erős terheket jelentettek és új kompetenciákat igényeltek. A könyvtárakból sok panasz érkezett a megterhelő jelenségek, a folyamatosan változó informatikai követelmények, és a szakmai feladatok változása miatt. A rendszer korábbi zárt keretei felbomlottak, az új technológia beáramlott az IKR rendszerekbe és a könyvtári folyamatokba. Az új web technológia könnyebbé váló használata és a közösségi média alkalmazása a használók figyelmét az internetes eszközök irányába fordították, amelyre a könyvtárak válaszként egyre inkább bevonták ezeket a technológiákat a könyvtári mindennapokba.

Kodifikált és azonosított adatokkal jellemzett információk – a géppel értelmezhető adatok

Tim Berners Lee 2001-es tanulmányát évekig utópiának gondolták sokan a szemantikus web és a linked data lehetőségéről az információmenedzsmentben. Mikor 2006-ban megjelent újabb tanulmánya részletesebb gyakorlati útmutatókkal, nagy nemzetközi könyvtári informatikai szolgáltatók javában kutatták a módszereket és az új adatformátumok szabályozásán dolgoztak az FRBR forrásfeldolgozó filozófiájának nyomdokain, együttműködve a W3C munkabizottságaival (Library of Congress, OCLC, a francia és a német nemzeti könyvtár stb.). Az FRBR forrásleíró módszertan nagy előrelépést jelentett a webes technológia könyvtári felhasználásában. A dokumentumok helyett a művek, alkotások, objektumok leírásának új alapelvét megteremtve a művek különféle manifesztumai kapcsolódhattak egy eszmei mű leírásához, megteremtve az adat- és információhálók fejlődésének alapjait.

A fejlődés következő lépcsőfoka a „data of web” fejlődési irány volt. A leírás alapegysége a rekord helyett az adat lett, amely a hálózaton adat gráfok formájában végtelenül bővíthető struktúrákba rendeződik. Data of web a dokumentumokra jellemző adathalmazok önállósult tömege különböző szabványos, a gépek számára felismerhető, értelmezhető és kereshető formátumokban (pl. FRBR, RDA, RDF, SKOS, stb.).

A könyvtári rendszerekben indexelhető, authority adatkörök alapján kialakultak az un. hálózati tudás- vagy információs gráfok a weben, amelyek a művekre leginkább jellemző adatstruktúrákhoz kötötték a további kapcsolatok lehetőségét: a mű címe, szerzők, hely, idő, esemény, stb. A világ entitásai megnevezéseinek kapcsolatairól állítások fogalmazhatók meg géppel olvasható és értelmezhető módon. Hadüzenet a MARC adatformátum lineáris adatkezelésének? Jelenleg még nincs háború, a MARC indextételein alapulnak az adatmanipulációk szabályozásai, ezért a meghaladás ténye mellett a párhuzamosság is jellemző a könyvtárakban. A BIBFRAME (Library of Congress) és az RDF (OCLC) linked data adatformátumok első példái megjelentek a keresési listákhoz rendelve, és a Wikipédia szócikkek alatt láthatóvá váltak a „nagykönyvtárak” RDF alapú és más formátumú leírásai. AZ RDF „triplets” alapelve szerint az adatokról egyszerű állítások formalizálásának módszere az alany, állítmány, tárgy „hármason” alapul. Az adatok URI azonosítókkal ellátva szemantikus adathálókká, tudáshálókká válnak a weben a gépi értelmezés és keresés, valamint korlátlan kapcsolatok bővítésének lehetőségével. (Összenő, ami összetartozik…) Az OCLC VIAF (Virtual International Authority File) rendszerének használata általánossá vált főleg a nemzeti könyvtárak rendszereiben, elősegítve a globálisan egységes authority adatok fejlődését. Az ISNI a szerzői nevek számozásával és egyéb adatok közlésével megkönnyítette a Kovács János típusú, vagy történelmi névalakok azonosítását, létrejött a Wikidata, a Geonames, stb. – az összes eredményt, amely az adatkezelést támogatta a könyvtárakban itt most nincs lehetőség felsorolni.

Természetes fejlődés a könyvtári strukturált rendszerektől a mesterséges intelligenciáig?

A fenti folyamatok rövid jellemzésével szeretném bemutatni azt a természetes fejlődést, amely a könyvtári strukturált rendszerektől a szemantikus web formalizált és géppel értelmezhető nyelvén át a mesterséges intelligencia könyvtári alkalmazásához vezetett. A mesterséges intelligencia alapja, a gépi programozás és az emberi kognitív műveletek szimulálása az emberi gondolkodás módszerének logikai rendjére épül, amelyben a logikai struktúrák, a mintavétel, összehasonlítás, asszociáció, stb. módszere a könyvtárosok számára mindennapi gyakorlat volt.

Az adatformátumok és a gépi értelmezés fejlesztései nyomán nyilvánvaló volt, hogy az adatmanipulációkhoz és a kereséshez is fogalmi elemzéseket, tárgyszó pontosításokat kell végezni, amelynek nyomán megszülettek a szemantikus adatszótárak. A keresés fejlesztéséhez a legnagyobb szolgáltatók felhasználták a könyvtári tárgyszó rendszereket, pl. a Library of Congress tárgyszókészlete alapján több vonalon is megindultak a fejlesztések, sőt kooperációban folytak a szemantikus szótárak korszerűsítései. (Ld. Schema.org, Bibliograph.net). 2012-ben a Google, a Yandex, az OCLC, a Jahoo és a Library of Congress a keresés fejlesztésére közös projektet hozott létre, amelynek eredményeire felfigyelhettek a Google rejtelmeiben bóklászók. Ennek a fejlesztésnek a talaján 2015-ben a Google létrehozta a Talk to Books mesterséges intelligenciát használó kereső rendszerét a Google Books állománya, és annak szabad szöveges keresése alapján.

Áttörés: mesterséges intelligencia a szemantikai technológiai fejlődés talaján

A kulturális örökség gondozásával foglalkozó intézmények környezetében természetes módon adottak a források az elemzéshez, a mintavételhez, a szabályok alkotásához. Különösen igaz ez a kijelentés a digitális állományokra, amelyek áttekintése, kapcsolataik felismerése gyorsabb és nem helyhez kötött, a kutatók virtuális hálózatokban is kooperálhatnak a felderítésekben. A virtuális adat- és tudáshálók alapján a korábban feltáratlan kapcsolatokra is fény derül, a folyamatosan bővülő kapcsolatok a kereséshez új és új forrásokat kínálnak. A bővülő adat- és információhalmaz a mesterséges intelligencia kutatásokhoz és fejlesztésekhez újabb és újabb adalékokat nyújt, a fejlődés kölcsönössége mindkét folyamatban kihasználható szinergiákkal jár.

A mesterséges intelligencia fejlődését generáló tényezők könyvtári környezetben

A nagy tömegű és nyílt hozzáférésű digitális hálózati adatmennyiség és digitális transzformáció gazdag mintavételi lehetőséget kínál minták begyűjtésére, csoportosítására, szabályosságok felismerésére, összefüggések kimutatására az adatkezelésben, a keresésben, a gépi tanulásban, a kép-, hang- és szövegfelismerés folyamataiban. Az elektronikus könyvtári szabály- és szakértői rendszerek alapot adnak a gépi és programozott oktatásra, folyamatszabályozásra, és a mesterséges intelligencia alapján álló szakértői rendszerek használatára, az átmeneti megoldások transzformációira. (Példákat ld. később).

A növekvő és fejlődő számítógépes kapacitás nagy tároló rendszereket biztosít szöveges és képi állományok megőrzéséhez, elemzéséhez, a friss és tartós használatú tartalmak különválasztásához, a memóriában tárolt tartalmak gyors szolgáltatásához, szelekciójához, az adatok manipulációjához. (Ld. Big data felhőrendszerek.)

201803_Szakmaimuhely_Mesterseges_intelligencia_1

Mesterséges intelligencia digitális asszisztens robottal a T-systems 2017-es Szimpóziumán.
https://www.youtube.com/watch?v=gtM2z16e9ao

Az adattudomány és az informatika fejlődése különleges kompetenciákat generál a szakértők között, amelyet a számítástechnika fejlődése, az elmélet és szabályozás háttere gazdagít. Az adattudósok és az adatspecialista könyvtárosok együttműködése várhatóan természetessé válik. Az adattudósok az adatelemzések, analízisek, adatbányászati és adatprogramozási feladatok, a könyvtárosok az adatok kezelése, a különböző területek jellemző adatainak használata, egységesítése terén fejtik ki szakértelmüket.

A nagytömegű mintára támaszkodó elemzések felkészítenek az emberi intelligencia működésének szimulálására, és a gépi tanulás folyamatának előkészítésére, amelyet egyéb fejlődő tudományágak is támogatnak, pl. az agykutatás, génkutatás, 3D képfelvételek. Az RFID rendszereket egyes elemeit tekinthetjük az első könyvtári mesterséges intelligencia alkalmazásnak, amelyeknél megtörtént a szenzorok és könyvtári rendszerek automatikus kommunikációja és tranzakciója, automatikus következtetésekkel, amely majd az IoT (Internet of Things) fejlesztések elterjedésével megjelenik a háztartásokban, iparban, közlekedésben, turisztikában, mérnöki rendszerekben, de elsősorban az orvosi informatikában, a minta-alapú diagnosztizálás, az evidencia-based orvoslás és a távoli betegállás digitális rendszereiben. (Ld. pl. a T-Systems e-medSol, HISMobil, MedIQueTelemedicina rendszereit.)

Könyvtári fejlesztések a mesterséges intelligenciához vezető fejlődési folyamatban

A mesterséges intelligencia kibővíti a könyvtári döntéshozás és elemzés folyamatához szükséges emberi képességeket, de teljes mértékben nem helyettesíti jelenleg azt. Minél több az adat, annál pontosabban teljesíthető a gépi “agy” felkészítése az új helyzetekre és a mintavétel alapú szabályok alkotására. Ezért nagyon fontosak a nyílt digitális hálózati adatok és információk bővítései az alábbi területeken.

1./ Géppel olvasható adatok növelése

A kódolás, azonosítás, egységesítés, adatmodellek és adatmenedzsment, szenzitív adatok menedzselése, copyright szabályok egységesítése, az access / hozzáférési és ID / azonosítási szabályzatok, technológiák és eljárások bővítése. A digitális repozitóriumok fejlesztése alapján olyan struktúrákat, folyamatokat és eszközöket hozunk létre, amelyek mintaként, elemenként beépíthetők, felhasználhatók a gépi tanulásban, szövegelemzésben, kérdés-válaszok robottal történő szolgáltatásában.

2./ Adatok megbízhatóságának fejlesztése

Nagy mintavétel alapú elemzések (kodifikált adatok), nemzetközi szakértői rendszerek (VIAF, Wikidata, ISNI, programozott forrásfeldolgozó e-learning, stb.) használata alapján olyan alaprendszerek jönnek létre, amelyek kodifikáltnak tekinthetők további automatikus szolgáltatásokhoz.

3./ Keresés fejlesztése tudásháló és mesterséges intelligencia technológiával

Az adatárak mélyén rejlő adatok, információk felkutatásának eszközei folyamatosan fejlődnek, hatnak egymásra. Olyan szakértői rendszerek, szövegelemzések, adatbányászat, mély keresések, kép-, hang- és szövegfelismerés eszközök fejlesztését készítjük elő, amelyek gépi programozással elősegítik a minőségi mesterséges intelligencia kereső eszközeit (ld. a Semantic Scholar keresőt, elsősorban orvosi szakirodalom feltárására, de műszaki, művészeti könyvtárakban is látható a fejlődés.)

4./ Gépi tanulás előkészítése a könyvtári folyamatok aktualizálásával

Vannak példák az emberi gondolkodás folyamatának szimulálására algoritmusokkal, a mesterséges intelligencia kiterjesztésére a használói rendszerekre és szolgáltatásokra, programozott útmutatókra, szabad szöveges kérdésekre és válaszokra, szöveg- és kép felismerésre robot technológiával, stb. (Sophia, Alexa, Siri, stb.).

5./ Szakértői rendszerek könyvtári folyamatokról mesterséges intelligencia eszközök beépítésével.

A könyvtári szakértői rendszerekben számítógéppel támogatott probléma megoldást programozunk, vagyis emberi intelligenciát (részben) helyettesítő módon automatizálunk (rész)folyamatokat. A szakértői rendszerekben jelentős tényező, hogy gépi segítséggel képesekké válunk terjedelmes, bonyolult, vagy sok adatot és hivatkozást igénylő hatékony feladatvégzésre, vagy a kiszolgált terület átlátására ésszerő erőforrások felhasználásával.

A könyvtár minden területén jellemzőek a manuális és gépi intelligens átmeneti szakértői rendszerek: katalogizálás, beszerzés, adatbázis kiválasztás, keresés, publikációs eljárások és informatikai eszközök, hatásvizsgálat, használói és kompetencia vizsgálatok, web elemzés és archiválás, heterogén gyűjtemények kombinálása, metaadat sémák, ontológiák, szakértői szótárak integrációja a saját rendszerben és külső rendszerekből, szintaktikai és szemantikai struktúrák átvétele és tervezése, stb.

201803_Szakmaimuhely_Mesterseges_intelligencia_2

Pl. Electronic database selection
Expert system Wei Ma,
Timothy W. Cole, több kiadásban

https://pdfs.semanticscholar.org/
4f36/9ac2940237a348edd431c37f
ca901b64c731.pdf

http://www.ala.org/acrl/sites/
ala.org.acrl/files/content/
conferences/pdf/ma.pdf

Példa szakértői rendszer könyvtári alkalmazására

a./ Adatbázis kiválasztása kérdés-feleletek feldolgozása alapján használói és könyvtáros oldalról

b./ ONLI: Ontology-based Natural Language Interface : An ontology-based system for querying DBpedia using natural language paradigm. https://www.researchgate.net/publication/273479423

6./ Mesterséges intelligencia szolgáltatások begyűjtése

Más területek alkalmazásainak adaptálása, transzformálása, alkalmazott megoldások aktualizálása a könyvtár szolgáltatásainak gazdagításának eszköze.

Szemantikus keresők

Láthatók a kereskedelmi fejlesztők rendszereinek különböző specialitásai a jelentésalapú keresési módszerek fejlesztésében, eltérő előnyökkel: Hakia, TextWise, WolframAlpha, Bing, ADVISE stb.

Mesterséges intelligencia alapú szabad szöveges keresők

NLP Natural Language Processing – természetes nyelvi folyamatok alapján működő keresők és üzenetváltók.

A Semantic Scholar fejlesztésnél kombinálták a gépi tanulást, a természetes nyelvi folyamatok programozását, beépítettek egy szemantikai elemző és egy analízis eszközt, amelynek eredményeit grafikusan is bemutatja a rendszer. Hasonlóan a Google Scholar és PubMed, rendszerekhez, itt is a legjelentősebb forrásokat építették be a keresésbe és a kapcsolatok kiépítésébe, jelentős orvoslási forrásanyagokkal.

Talk to Books

201803_Szakmaimuhely_Mesterseges_intelligencia_3

Szabad szöveges kérdésekre azonnali
választalálatokat ad a könyvekben
őrzött tudás, a Google Books tudásbázis
alapján. A mesterséges intelligencia
gépi tanulással értelmezi a kérdést,
és a bő 100 ezernyi könyv teljes szövegéből
próbál értelmes, releváns válaszokat kihozni.

Öntanuló rendszer, a kezdeti próbálkozásoknál
a relevancia korlátait meghatározza a beépített
könyvek tematikája

https://books.google.com/talktobooks/

Chatbots / Talk a bot üzenetváltók gyors, egyszerű kérdés- válasz rendszerekhez

A Chatbot megoldáshoz többféle gépi tanulási algoritmust használnak a természetes nyelv feldolgozásához felhasználói oldalról, deep learning algoritmusokat alkalmaznak a chatbot folyamatos fejlődéséhez, illetve egyéb algoritmusokat a nyelvben és a beszédben megjelenő érzelmek értelmezéséhez, a szleng megértéséhez. Egyszerű kérdések értelmezéséhez és a válaszadásához programozzák az eszközöket.(ld. még:

http://www.technokrata.hu/egazdasag/dotkom/2017/12/25/egyre-tobb-energiat-fektetnek-a-chatbotok-fejlesztesebe/)

7./ Tudásreprezentációk intézményi feladatokhoz mesterséges intelligencia elemekkel

A fogalmi- és szöveganalízis, a bizonyítási és elemzési folyamatok szabályozása, tér- és időbeli összefüggések keresése, hivatkozások, intelligens interfészek beépítése a tudásreprezentációs eszközök kommunikációjához, kommunikációs folyamat tervezése, korábbi manuális szakértői rendszerek transzformálása, automatikus szövegértelmezés és kommunikáció – sokféle megoldás alkalmazható, jelenleg általában részfolyamatokra vonatkozó elemek beépítésére került sor.

Fenyegetés lenne számunkra? Az ember jobb és fejlődésre kész!

A különféle tanulmányokban felbukkanó félelmek a gépek győzelméről szerintem túlzott mértékűek, mert a gépek működését az emberek programozzák ráadásul mindig múltbéli ismeretek, előző tudás alapján. Attól félni nem érdemes, hogy ismétlődő, mechanikus, vagy kevés döntést igénylő szabvány vagy rutin feladatokat gépekkel végeztetünk – marad elég régi és újonnan keletkező munka, amelyek minőségi fejlesztésére koncentrálhatunk.

A gépi memória és a gyors áttekintő képesség mennyiségi és sebességi szempontból meghaladja az emberi elme lehetőségeit, és ezért nagy segítséget nyújt az elemzéshez, következtetéshez, döntéshez, de nem lehet képes a programozó által beültetett intelligencia szintjének minőségi meghaladására. Jó példa erre a robotok által végeztetett főzési gyakorlat adott alapanyagokkal, amelynek siralmas eredményei megnyugtathatták az állásvesztéstől aggódó szakácsokat, a robot hiába főz gyorsabban, ha az étel ehetetlen. Lehet, hogy sebvarrásban meghaladja az orvos pontosságát, de a diagnosztizáláshoz nem leszünk képesek teljesen szimulálni az orvosi tapasztalatot a gépi programozásnál. A gén- és rákkutatásban elért eredmények a nagytömegű mintavétel, az összehasonlítható képek, szövegek, és egyéb szabályosságok gépi felismerései alapján a kutatók következtetéseiben születtek meg.

A gépek nem tudják átvenni az uralmat az ember felett, de az emberek kis csoportja képes lehet felhasználni a magas technológiát rosszindulatú célokra is. A leszakadó társadalmi csoportok gyermekei be tudják-e hozni a lemaradást, vagy megmarad a kettészakadás a digitális írástudás birtoklói és a technológiát nem értők között? Látjuk, de általában nem törődünk vele, hogy mobil telefonjaink alkalmazásával nem titok, merre járunk, hol tartózkodunk, mit veszünk (kinek hányszor telefonálunk, hová utazunk, mit olvasunk, hol kommentezünk, stb.). Már egy központi rendszerben vannak egészségi adataink, kiváltott gyógyszereink, betegségeink, kezeléseink – de bízunk ezek tisztességes felhasználásában, a „titkok könyvtárainak” jogszerű használatában. A jelenleg csak a teljesíthetetlenség jelzőjével illetett GDPR szabályok bizonyára nem véletlenül születtek meg adataink védelmére.

Veszélyes zóna tehát, kinek a kezébe kerül a mesterséges intelligencia. Hogyan lehet gátat szabni a rosszindulatú alkalmazásoknak, a módszerek segítségével beépíthető csalások, megtévesztések, hamis információk közlésének? A tömeges internet használat alig 20 éves. A korai próbálkozások és gyermekeink mobil használata között fényévek látszódnak, a hagyományos média szerepe csökken, hangtalanul szűnnek meg közel száz éves újságok, az újságírás sodródik a gyors sikereket hozó bulvár irányába, és egyre több a „fakenews”, a valódinak tűnő álhír. Hogyan őrizhető meg kritériumként a valóságtartalom értékmérője majd a mesterséges intelligencia környezetében? A könyvtárak szerepe ebben nagyon jelentősnek tűnik számomra. Félelmeink mellett meg kell említeni, hogy az információk elzárása, titkolása csak időleges sikereket hozhat a digitális információs források elérésének, felkutatásának globális lehetőségei miatt, így a fals hírek is leleplezésre vannak ítélve. Sem a korlátozás, sem az elzárás nem lehet tartósan eredményes vagy megkerülhetetlen, az írástudók felelőssége épp ezért fokozottan érvényes, etikusan kell élni vele.

Az ember legveszélyesebb ellenségének, az embernek már kezében vannak most is a teljes önmegsemmisítés eszközei, és mégis, az atombombák indítógombjait eddig kordában tudtuk tartani. A szabályozás mindig utólag születik a megvalósult példák adott mennyiségének és problémáinak példái alapján. A cégek kurrens informatikai fejlesztési irányként kezelik a mesterséges intelligenciát, szakosodott cégek és konferenciák születnek, a folyamat nyomán felbukkannak a szakértők, és az érintett szakterületek innovátorai, akik felkutatják az eredmények hasznosítási lehetőségeit az életminőség emeléséhez. Lehet a társadalmi következmények miatt aggódni, azonban a könyvtárak számára szerintem nagyon sok feladatot hoz a felkészülés egy újabb paradigmaváltásra.

Néhány forrás:

Horváth Zoltánné Marcsi
T-Systems Magyarország Zrt. könyvtári tanácsadó

Comments are closed.

Blog Home