Show
Ignore:
Timestamp:
02/03/12 16:39:52 (12 years ago)
Author:
jabu
Message:

presunuti minimalizace do kapitoly o LQ rizeni

Files:
1 modified

Legend:

Unmodified
Added
Removed
  • applications/doprava/texty/novotny_vyzk_LQ/Pouziti/Pouziti.tex

    r1427 r1429  
    55\input{06_Bayes_rmm_pouziti/Bayes_rmm_pouziti.tex} 
    66 
    7  
    8 \section{Zhodnocení} 
    9  
    10 \subsection{Použití zpětnovazebného učení} 
    11  
    12 Metode popsaná v článku \cite{3_i_traff_light_c} používá ohodnocovací funkci 
    13 založenou na parametrech jednotlivých vozidel. Výhodou oproti pojetí, kdy agent 
    14 představuje pouze signální skupinu, jsou například v tom, že není potřeba 
    15 odhadovat délku fronty a úloha se celá zjednoduší. Například v publikaci 
    16 \cite{tlc_using_sarsa} se musí používat k odhadu funkcí $V$ a $Q$ neuronová síť. 
    17 Navíc tento systém umožňuje i výběr optimální cesty vozidla pro průjezd dopravní sítí. 
    18 Nevýhodou tohoto pojetí je ovšem značná neuniverzálnost. Už pro počítačové testování 
    19 tato metode znesnadnuje či úplně znemožňuje použít celou řadu dopravních simulátorů, 
    20 které jsou pro simulaci po dlouhou dobu optimalizovány a  
    21 jejichž nasazení značně zjednodušuje práci a urychluje vývoj. 
    22 Navíc pokud je použit řadič, který obstarává logiku přepínání průjezdnosti a  
    23 lze nastavovat pouze vnější parametry jako jsou délka cyklu a offset, je 
    24 metoda, která potřebuje okamžitou změnu signalizace naprosto nevhodná, 
    25 proto je toto řešení pro reálné nasazení v dnešní době obtížně použitelné. 
    26 Zapojení některých myšlenek z článku \cite{3_i_traff_light_c} nebo použití 
    27 zpětnovazevného učení k řešení dílčích problémů by však mohlo přinést zlepšení 
    28 i do způsobu žešení popsaných v dalších kapitolách. 
    29  
    30 \subsection{Použití RMM a Bayesova učení} 
    31 V článku \cite{4_rmm_formalization} nenjsou podrobně popsány akce agentů ani 
    32 způsob, jak hodnotit jejich užitečnost. Proto je tato metoda jen obtížně reprodukovatelná, 
    33 modifikovatelná či dále rozvinutelná. V naší situaci popsanné v dalších kapitolách také není nutné 
    34 modelovat chování agentů, neboť je možné ho vykomunikovat pomocí posílaných zpráv. V případě 
    35 reálného nasazení by však bylo možné vylepšení zapojení RMM pro odhad chování agenta 
    36 pokud by nastal výpadek spojení nebo podobná situace. 
    377 
    388\subsection{Použití LQ řízení ve strategii TUC} 
     
    12090 g(t) = g(t-1) - L( x(t) - x(t-1) ) \;. 
    12191\end{equation} 
     92 
     93\section{Zhodnocení} 
     94 
     95\subsection{Zpětnovazebného učení} 
     96 
     97Metode popsaná v článku \cite{3_i_traff_light_c} používá ohodnocovací funkci 
     98založenou na parametrech jednotlivých vozidel. Výhodou oproti pojetí, kdy agent 
     99představuje pouze signální skupinu, jsou například v tom, že není potřeba 
     100odhadovat délku fronty a úloha se celá zjednoduší. Například v publikaci 
     101\cite{tlc_using_sarsa} se musí používat k odhadu funkcí $V$ a $Q$ neuronová síť. 
     102Navíc tento systém umožňuje i výběr optimální cesty vozidla pro průjezd dopravní sítí. 
     103Nevýhodou tohoto pojetí je ovšem značná neuniverzálnost. Už pro počítačové testování 
     104tato metode znesnadnuje či úplně znemožňuje použít celou řadu dopravních simulátorů, 
     105které jsou pro simulaci po dlouhou dobu optimalizovány a  
     106jejichž nasazení značně zjednodušuje práci a urychluje vývoj. 
     107Navíc pokud je použit řadič, který obstarává logiku přepínání průjezdnosti a  
     108lze nastavovat pouze vnější parametry jako jsou délka cyklu a offset, je 
     109metoda, která potřebuje okamžitou změnu signalizace naprosto nevhodná, 
     110proto je toto řešení pro reálné nasazení v dnešní době obtížně použitelné. 
     111Zapojení některých myšlenek z článku \cite{3_i_traff_light_c} nebo použití 
     112zpětnovazevného učení k řešení dílčích problémů by však mohlo přinést zlepšení 
     113i do způsobu žešení popsaných v dalších kapitolách. 
     114 
     115\subsection{RMM a Bayesova učení} 
     116 
     117V článku \cite{4_rmm_formalization} nenjsou podrobně popsány akce agentů ani 
     118způsob, jak hodnotit jejich užitečnost. Proto je tato metoda jen obtížně reprodukovatelná, 
     119modifikovatelná či dále rozvinutelná. V naší situaci popsanné v dalších kapitolách také není nutné 
     120modelovat chování agentů, neboť je možné ho vykomunikovat pomocí posílaných zpráv. V případě 
     121reálného nasazení by však bylo možné vylepšení zapojením RMM pro odhad chování agenta 
     122pokud by nastal výpadek spojení nebo podobná situace. 
     123 
     124\subsection{LQ řízení}