
Język polski najlepszy do pracy z AI. Wyniki amerykańskich badań mówią same za siebie
Język polski jednym z najtrudniejszych na świecie? – Nie dla AI. Wyniki badań przeprowadzonych przez amerykańskich naukowców plasują go na pierwszym miejscu, jeśli chodzi o wydajność obszernych, kontekstowych promptów. Angielski daleko w tyle.
Język polski najlepszy do promptowania AI
Polski – jako jeden z najtrudniejszych języków świata – stanowi niebagatelne wyzwanie dla każdego, kto podejmuje się jego nauki. AI okazało się w tym kontekście wyjątkowo pojętnym uczniem. Ba, upodobało sobie właśnie naszą rodzimą mowę. Mimo stosunkowo niewielkich zasobów w języku polskim, służących do trenowania dużych modeli językowych, to właśnie on zajął bowiem pierwsze miejsce pod kątem wydajności w formułowaniu promptów o długim kontekście.
Ranking, w którym przoduje, sformułowano na podstawie badania “One ruler to measure them all: Benchmarking multilingual long-context language models”, przeprowadzonego przez zespół naukowców z University of Maryland oraz Microsoftu.
Badacze wykonali test porównawczy, w ramach którego sprawdzili wydajność promptowania w 26 różnych językach dla modeli: OpenAI o3-mini-high, Google Gemini 1.5 Flash, Qwen2.5 (7B i 72B), Llama 3.1 (8B), Llama 3.3 (70B) oraz DeepSeek-R1. Stosowane przez nich polecenia były przy tym wyjątkowo długie, kontekstowe (do nawet 128 tys. tokenów). Rezultat? – Zaskakujący nawet dla samych naukowców:
Eksperymenty z otwartymi i zamkniętymi modelami LLM ujawniają rosnącą różnicę w wydajności między językami o niskich i wysokich zasobach, wraz ze wzrostem długości kontekstu z 8 tys. do 128 tys. tokenów. Co zaskakujące, język angielski nie jest językiem o najwyższej wydajności w zadaniach długiego kontekstu (zajął 6. miejsce na 26), a na szczyt listy wysuwa się język polski
– możemy przeczytać w raporcie z badania.
Skuteczność promptowania AI w różnych językach – ranking
Kompletny ranking wydajności poszczególnych języków w kontekście obszernego promptowania AI prezentuje się następująco:
- polski – 88%
- francuski – 87%
- włoski – 86%
- hiszpański – 85%
- rosyjski – 84%
- angielski – 83.9%
- ukraiński – 83.5%
- portugalski – 82%
- niemiecki – 81%
- holenderski – 80%
- norweski – 79%
- szwedzki – 78%
- duński – 77%
- węgierski – 76%
- fiński – 75%
- czeski – 73%
- japoński – 72%
- wietnamski – 71%
- perski – 70%
- serbski – 69%
- koreański – 66%
- hindi – 65%
- chiński – 62.1%
- tamilski – 61%
- swahili – 55%
- sesotho – 45%
Źródło: Yekyung Kim, Jenna Russell, Marzena Karpinska, Mohit Iyyer, “One ruler to measure them all: Benchmarking multilingual long-context language models”, arxiv.org, dostęp: 25.10.2025




Komentarze
1