A nyelvi relativizmus gyökerei Ne legyenek kétségeink afelől hogy mint minden ez is régi görögöknél kezdődött, Platón úgy gondolta hogy fogalmainkat (ideáinkat) készen kapjuk, Arisztotelész ellenben azt tartotta hogy pusztán konvenciókon alapulnak. Whithead sokat idézett mondása szerint "Western philosophy is a series of footnotes to Plato", de azért érdekes egy kicsit kutakodni ezekben a lábjegyzetekben, különösen a felvilágosodás korában. Ekkor központi problémává lépett elő hogy miképp teszünk szert tudásra, hiszen a középkor világképe eltűnőben volt, megjelent a reformáció, elkezdtek kialakulni a mai tudományok. Descartes a platóni tanhoz hasonlóan úgy gondolta hogy elménk rendelkezik bizonyos alapelvekkel, melyek lehetővé teszik hogy az érzékszervek szállította információkat rendszerezzék és feldolgozzák. Locke ellenben arra a következtetésre jutott hogy az elme "tabula rasa" azaz üres lap, tartalommal csupán a tapasztalat tölti meg. Ezzel kezdetét vette ismét a nature versus nurture soha véget nem érő vitája. A következő lényeges állomás ebben a vitában Wittgenstein híres privát nyelv argumentuma (Filozófiai vizsgálódások §243.), ami az ún. szolipszizmus elleni egyik legjobb érv (szerintem). Röviden összefoglalva Wittgenstein azt fejtegeti hogy milyen mértékben lehetséges egy saját, csak általunk használt nyelvet kifejleszteni, mennyiben tekinthető ez egyáltalán nyelvnek. Nyilván alkothatunk magunknak egy ilyen kódot, azonban ezt csak egy már általunk (s így mások által is) beszélt nyelvhez viszonyítva tehetjük meg, értelmét is csak onnét nyerheti el. Így a szélsőségesen relativista álláspont tarthatatlan, azaz nem alapozhatók a nyelvi jelentés elemei egyetlen ember tapasztalataira. Wittgenstein korában rendkívül népszerű volt a behaviorizmus, mely a viselkedés kialakulása során a környezeti hatásoknak tulajdonított nagy jelentőséget. Ez remekül összecsengett a korban nagyon népszerű, strukturalista alapokon nyugvó amerikai bloomfieldiánus nyelvészettel. Az amerikai nyelvészek a múlt században nagyon szerettek terepre menni és leírni a még megmaradt bennszülött nyelveket. Ilyen alapokon jött létre a nyelvi relativizmus, vagy Sapir-Whorf tézise, mely két verzióban szoktak emlegetni: 1) a nyelv meghatározza miképp érzékeljük a világot, azaz nyelvünk kategóriái adják a keretet ahhoz miképp érzékeljük a minket körülvevő világot 2) az hogy a különböző nyelvek különböző kategóriákba rendezik a valóságot, befolyásolja viselkedésünket (akár nem-nyelvi szinten is). A 1)-et erős, míg a 2)-t gyenge hipotézisnek szokás nevezni. Racionalisták ma A Sapir-Whorf tézist erős formájában ma már nem fogadja el senki (vagy majdnem senki), ezért ezzel a továbbiakban nem foglalkozunk (legerősebb formáját többek között a fent tárgyalt privát nyelv argumentum miatt vetették el). Az 1950-es években jelent meg Noam Chomsky generatív nyelvészeti programja, mely azóta sok változáson ment át, ám alapvető tanai mit sem változtak. Chomsky megkülönbözteti a nyelvet amit hallunk és amin beszélünk a mély, internalizált i-nyelvtől. Ez az ami a nyelvészeti vizsgálódások valódi tárgya a generativisták szerint. Ezek velünk született, biológiailag determinált tulajdonságok szerintük melyek lehetővé teszik hogy viszonylag gyorsan sajátítsa el minden gyermek az anyanyelvét. Nem tagadják az egyes nyelvek közötti különbségeket, csupán annyit állítanak (eléggé meggyőzően) hogy a gyermek nem tabula rasa, hanem rendelkezik olyan elvekkel melyek segítik teleírni a lapot. Ezek az elvek nagyon egyszerűek, pl segítik a szórend beazonosítását, és ha meg van a szórend, akkor már adott hogy milyen más elvek működhetnek (prepozíciókat vagy ragokat keressen-e stb). Ebben a mai generatív elméletek Descartes nyomdokain haladnak, a felvilágosodás korának racionalista hagyományait követik. Az empirista hagyomány ma Chomsky amellett hogy újra bevezette a racionalizmus a köztudatba, élesen bírálta a behavioristák és a bloomfieldiánusok empirizmusát. Híres A Review of B.F. Skinner's Verbal Behavior cikkében ízekre szedte a tisztán empirista alapokra épített tanuláselméletet, Syntactic Structures című könyvében pedig a sztochasztikus grammatikai elméleteket kritizálta. Dióhéjban érvelésében arra épít mindkét esetben hogy mindkét megközelítés csupán leírni akarja a jelenségeket. Adott adatok bemennek egy feldolgozó egységbe, majd valamilyen adatok kijönnek, a statisztikai elemzés csak arra képes hogy tendenciákat írjon le, ha ilyen és ilyen az input, akkor ilyen és ilyen output várható, de arról nem mond semmit hogy miért és mi történik bent a feldolgozás során. Ma amikor valószínűségi és statisztikai megközelítés hódít a számítógépes nyelvészet és a tágabb mesterséges intelligencia területén, egyre többen kritizálják Chomskyt. Miért vetett el egy ilyen gyümölcsöző megközelítést? Hogy lehet hogy a statisztikai módszerek működnek, a generatív elméletek pedig nem az alkalmazások terén? A gyakorlati alkalmazások területéről érkező nyomás hatására a nyelvtudományon belül kialakult az ún. valószínűségi nyelvészet (probabilistic linguistics), az adatvezérelt nyelvészet (data driven linguistics) ill. egyre többen gondolják úgy hogy az alkalmazott módszerek és a feldolgozott adatok mennyiségének terén is paradigmaváltás szükségeltetik (l. Bender-Good white paper-jét A Grand Challenge for Linguistics: Scaling Up and Integrating Models). Azonban ha beengedjük az ilyen nagyfokú eltéréseket természetesnek kezelő elméleteket, felvetődik annak kérdése hogy mennyiben tekinthetők az egyes természetes nyelvek ugyanazon képesség megnyilvánulásainak. Van-e egyáltalán valami a háttérben, vagy csak a bizonyos fokig egységes emberi tapasztalat alakította őket valamilyen szinten összemérhetővé? A következő részben A következő részben megvizsgáljuk milyen válaszok születtek a feltett kérdésekre és hogy mennyiben tarthatók ezek az elméletek. Mielőtt az olvasó azt gondolná hogy ez is olyan örök vita amit soha nem lehet feloldani, lelövöm a poént és elárulom hogy nem. Már akadnak olyan próbálkozások melyek "egységes elméletet" próbálnak kialakítani, integrálva a két mai trendet.