Toto jsem musel prerusit ale neni cas se tomu poradne venovat. Bohuzel 23.12.2024 peklo sestoupilo na zem

.
Stale ale delam rozbor jak to naprogramovat.
Zatim vyhrava myslenka emulatoru ktery bude pocitat zpozdeni na hradlech. Sice to bude 100x nebo mozna i 1000x pomalejsi nez realny cip ale ukaze se jak rychle se propaguji zmeny uvnitr cipu. Hlavne to bude mit kontrolni cinnost. Premyslel jsem ze naprogramovat zaklad v Pythonu ale asi rovnou to budu delat v C nebo C#.
Cele to bude emulovat verilog kod. Proste verilog kod prepisi co C a to tak aby to pripadne slo predelat do strojaku ale to neni cil.
Proto jeden signal bude mit velikost 8bitu.
Zamerim se na par mist co mne zajimaji. A to hlavni citac uvnitr GDG. Nasledne hor. a ver. citac. Delic pro CPU. Zpozdeni pro serializaci - to je nejvetsi hrich v konstrukci.
Cely program by mel odpovedet jake je minimalni a maximalni zpozdeni modulem, napr. komparatorem. A samozrejme i kontrola zda vstup a vystup odpovida logicke funkci. Proto to take bude cele tak pomale.
Na druhou stranu vypoctene veci se muzou nasledne vypinat a tim vykon pocitace vzdy bude pocitat jen dulezite veci. Prozkoumane moduly se nebudou detailne zpracovavat.
Soucasne budu i menit model tak, ze NTSC a TEST vyvyod zrusim. Cela cast obvodu pro testovani gdg je pro mne k nicemu.
Zakladni emulovana frekvence GDG bude 35,4688 Mhz (nebo jeste 2x vetsi). To se uvidi. Cele bych to chtel udelat aby vse se menilo pouze nabeznou hranou hodin. Ale protoze se bude muset emulovat to zpozdeni hradel tak vse pojede 10x rychleji jako 354,688 MHz.