Edward Weinert

"What I cannot create, I do not understand." – Richard Feynman

  • Analiza Danych

    Mierzenie poprawności odpowiedzi LLM

    2025-07-24 /

    Odpowiedź modelu językowego (LLM)  jest zawsze obarczone pewną niepewnością, podobnie jak każdej innej głębokiej sieci neuronowej i klasycznych modeli uczenia maszynowego. LLM generując odpowiedź na zapytanie (prompt) dobiera kolejne tokeny, czyli słowa i znaki interpunkcyjne, w oparciu o prawdopodobieństwo ich występowania. Ta niepewność powinna ograniczać nasze zaufanie do wyników działania modeli językowych o ile jesteśmy świadomi jej istnienia. Z drugiej strony w zależności od zastosowania różna jest też nasza tolerancja na błędy LLM’ów. W niniejszym artykule chciałem osiągnąć dwa cele. Pierwszym było porównanie odpowiedzi LMM dla obszarów, które znacząco różnią się zasobem wiedzy, na której uczono model językowy. Drugim celem było porównanie możliwości testów narzędziami offline oraz z użyciem OpenAI,…

    dowiedz się więcej

    Zobacz również

    Kiedy zniknie błoto i ruszą czołgi?

    2023-03-14

    Entropia – pomost pomiędzy fizyką a uczeniem maszynowym

    2021-08-12

    Pętla OODA – wpływ entropii i mechaniki kwantowej na procesy podejmowania decyzji

    2023-09-19

ai datascience deep learning EDA entropia fizyka LLM machinelearning matematyka mechanika kwantowa Monte Carlo nawadnianie OODA pekolacja pert python rolnictwo równania różniczkowe sieci neuronowe termodynamika zarządzanie zarządzanie projektem

Ashe Motyw przez WP Royal.