-
Mierzenie poprawności odpowiedzi LLM
Odpowiedź modelu językowego (LLM) jest zawsze obarczone pewną niepewnością, podobnie jak każdej innej głębokiej sieci neuronowej i klasycznych modeli uczenia maszynowego. LLM generując odpowiedź na zapytanie (prompt) dobiera kolejne tokeny, czyli słowa i znaki interpunkcyjne, w oparciu o prawdopodobieństwo ich występowania. Ta niepewność powinna ograniczać nasze zaufanie do wyników działania modeli językowych o ile jesteśmy świadomi jej istnienia. Z drugiej strony w zależności od zastosowania różna jest też nasza tolerancja na błędy LLM’ów. W niniejszym artykule chciałem osiągnąć dwa cele. Pierwszym było porównanie odpowiedzi LMM dla obszarów, które znacząco różnią się zasobem wiedzy, na której uczono model językowy. Drugim celem było porównanie możliwości testów narzędziami offline oraz z użyciem OpenAI,…
-
Między eksperymentem a harmonogramem – planowanie projektów AI z PERT i Monte Carlo
Czas dostarczenia projektu IT jest niejednokrotnie jednym z kluczowych czynników sukcesu produktu cyfrowego na rynku, a pracochłonność jest często głównym składnikiem jego kosztu. Dlatego tak ważna jest informacja o prawdopodobnym terminie dostarczenia i potencjalnym koszcie projektu. Nie inaczej jest z projektami AI. W gruncie rzeczy są to projekty IT, tyle że rozszerzone o bardzo istotną część jaką są modele ML/AI. Oczywiście w skład mogą wchodzić także inne prace związane z budową urządzeń, montażem czujników, itd. W niniejszym artykule przyjrzymy się również jak za pomocą języka Python wykonać symulacje Monte Carlo w celu oszacowania czasu realizacji zadań metodą PERT by oszacować czas realizacji projektu oraz jego pracochłonność. Niepewność i złożoność zadań…




