From 75bf48c2627b3abf58d53a1e554e1dbdd2fca5a6 Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?Pawe=C5=82=20Sk=C3=B3rzewski?= Date: Thu, 1 Feb 2024 16:48:51 +0100 Subject: [PATCH] =?UTF-8?q?Wyk=C5=82ad=2015=20-=20poprawki?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- wyk/15_Uczenie_przez_wzmacnianie.ipynb | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/wyk/15_Uczenie_przez_wzmacnianie.ipynb b/wyk/15_Uczenie_przez_wzmacnianie.ipynb index 5a537ee..a73ceff 100644 --- a/wyk/15_Uczenie_przez_wzmacnianie.ipynb +++ b/wyk/15_Uczenie_przez_wzmacnianie.ipynb @@ -175,7 +175,7 @@ "* Algorytm uczenia przez wzmacnianie będzie starał się zoptymalizować strategię tak, żeby na koniec otrzymać jak najwyższą nagrodę.\n", "* W chwili $t$, ostateczna końcowa nagroda jest zdefiniowana jako:\n", "$$ R_t := r_{t+1} + \\gamma \\, r_{t+2} + \\gamma^2 \\, r_{t+3} + \\ldots = \\sum_{k=0}^T \\gamma^k \\, r_{t+k+1} \\; , $$\n", - "gdzie $0 < \\gamma < 1$ jest czynnikiem, który określa, jak bardzo bieżemy pod uwagę nagrody, które otrzymamy w odległej przyszłości." + "gdzie $0 < \\gamma < 1$ jest czynnikiem, który określa, jak bardzo bierzemy pod uwagę nagrody, które otrzymamy w odległej przyszłości." ] }, { @@ -288,7 +288,7 @@ "name": "python", "nbconvert_exporter": "python", "pygments_lexer": "ipython3", - "version": "3.10.6" + "version": "3.10.12" }, "livereveal": { "start_slideshow_at": "selected",