Slides

  1. Probability for Language Modeling. pdf #1 (04.07.2024); pdf #2 (25.07.2024); pdf #3 (05.09.2024)
  2. Information Theory and Power Laws for Language Models and Stochastic Processes. pdf (03-09.03.2024)
  3. Poprawki do praw Zipfa i Heapsa oparte na modelowaniu frakcji hapaksów. pdf (13.11.2023)
  4. Universal densities for stationary processes. pdf (05.07.2023)
  5. (with Iván González Torre) Principled Analytic Corrections of Zipf’s Law (that Stem from Simple Hapax Rate Models). pdf (30.06.2023)
  6. (with Iván G. Torre and Antonio Hernández-Fernández) Menzerath-Altmann's law versus Menzerath's law as a criterion of complexity in communication. pdf (30.06.2023)
  7. A Simplistic Model of Neural Scaling Laws: Multiperiodic Santa Fe Processes. pdf (25.05.2023)
  8. Language Models and Power Laws. pdf (22.02.2023)
  9. Rozmowy z ChatGPT. pdf (23.01.2023)
  10. There Are Fewer Facts Than Words: Communication With A Growing Complexity. pdf (03.12.2022)
  11. Musing about Henri Poincaré’s “Mathematical Creation”: Fractal Jigsaw Puzzles and Computational Aesthetics. pdf (29.10.2022)
  12. Twierdzenie o faktach i słowach dla procesów stacjonarnych. pdf (15.12.2021)
  13. O uniwersalnej kompresji i predykcji. Przypadek procesów stacjonarnych ergodycznych. pdf (17.05.2021)
  14. Universal Coding and Prediction on Martin-Löf Random Points. The Case of Stationary Ergodic Measures. pdf (15.06.2020; 04.02.2021)
  15. Language as a Meaningful Stochastic Process: Theorems about Facts and Words. pdf (06.05.2020)
  16. Losowość algorytmiczna: Podstawowe idee i problemy. pdf (03.02.2020)
  17. Natural Language Is Not A Finite-State Process: Evidence from Three Statistical Power Laws. pdf (18.04.2019)
  18. Ergodic Properties for Stationary Measures. pdf (08.04.2019)
  19. The Puzzling Entropy Rate of Human Languages. pdf (05.07.2018)
  20. Praktyczne i teoretyczne problemy statystycznego modelowania języka naturalnego. pdf #1 (04.12.2017); pdf #2 (05.12.2017); pdf #3 (05.12.2017)
  21. Natural Language and Strong Nonergodicity. pdf / YouTube (21.07.2017)
  22. O problemie identyfikacji w granicy. pdf (10.03.2017)
  23. Maksymalne powtórzenia w tekstach i zerowa intensywność entropii. pdf / YouTube (06.02.2017)
  24. (with R. Takahira and K. Tanaka-Ishii) Large Scale Entropy Rate Estimation: A New Law that Governs the Complexity of Language. pdf (06-08.10.2016)
  25. Hilberg Exponents: New Measures of Long Memory in the Process. pdf (12.11.2015)
  26. Analiza statystyczna trudności tekstu. pdf (20.03.2015)
  27. Maksymalne powtórzenia w tekście i hipotezy probabilistyczne. pdf (03-05.10.2014)
  28. (with E. Charzyńska) Factors of Readability of Polish Texts: A Psycholinguistic Study. pdf (29.05.2014)
  29. Optymalność wnioskowania bayesowskiego dla algorytmicznie losowych parametrów. pdf (02.09.2013)
  30. The Vocabulary of Grammar-Based Codes and the Logical Consistency of Texts. pdf (10-13.01.2011,10.09.2007)
  31. Słownik kodów gramatykowych a spójność logiczna tekstów. pdf (09.11.2010)
  32. (with M. Woliński) Nowe metody ekstrakcji walencji czasowników z tekstów w języku polskim / New methods for verb valence extraction from Polish texts. pdf PL (22.10.2007); pdf EN (14.11.2007)
  33. Teorioinformacyjne twierdzenie Gödla, czyli co ma logika do statystyki. pdf (16.12.2006)
  34. (with E. Jarochowska and M. Wiech) Gradacyjna analiza danych korpusowych. pdf (26.06.2006)
  35. Prawo Zipfa. Zjawiska i próby objaśnień.
    pdf #1 (19.10.2005); pdf #2 (02.11.2005); pdf #3 (07.12.2005)
  36. Stacjonarne procesy gaussowskie, czyli o związkach pomiędzy zwykłą i częściową funkcją autokorelacji. pdf (12.03.2004)
  37. Charty zostały... czyli o generowaniu wierszy sylabicznych. pdf (17.12.2003)