1. Last 7 days
    1. Definition 2.1

      Vorschlag: Theoreme, Definitionen und Beispiele denselben Counter teilen lassen? Das hat den Vorteil, dass man, wenn man sich irgendwo im Skript befindet und Theorem x.y sucht und bei Definition x.z ist direkt weiß, ob man nach vorne oder nach hinten scrollen soll.

    2. Rechenaufwand

      Benötigt man FLOPS, wenn man Ergebnisse zwischen speichern möchte?

    3. Additionen, Multiplikationen und Vergleichen.

      Wie verhält sich das beim Bilden von multiplikativen Inversen?

    4. bei welchen historisch bedingt eine Addition und eine Multiplikation zu einer Rechenoperation zusammengefasst werden

      Macht es nicht einen großen Unterschied ob man eine Multiplikation oder einen Addition betrachtet? Also ist eine Multiplikation nicht viel mehr Rechenaufwand als eine Addition?

    5. Ist die Menge bereits sortiert, so liegt die Anzahl der benötigten Vergleichsoperationen mit dem Intervallhalbierungsverfahren in O(log⁡n)\mathcal{O}(\operatorname{log} n)O(logn).

      Gibt es eine noch effizientere Suche, als das Intervallhalbierungsverfahren für sortierte Mengen?

    6. Rechenaufwand

      Geht man dabei von einem "worst case" Szenario aus oder rechnet man mit einem "average case"?

    1. O(n)

      Liegt der Rechenaufwand einer Division bei einem FLOP, oder bei \(O(1)\) FLOPs?

    2. ai,k(j+1)​:=ai,k(j)​−li,j−1​aj−1,k(j)​,bi(j+1)​:=bi(j)​−li,j−1​b1(j)​  fu¨r  i,k=j+1,…,n.

      Im Bus mit einem Kommilitonen haben wir uns überlegt, dass es an dieser Stelle wie folgt heißen müsste: a_ik^(j+1):=a_ik^(j)-l_ija_jk^(j) Und: b_i^(j+1):=b_i^(j)-l_ijb_j^(j) Könnte das vielleicht Peer-Reviewen?

    3. Der Rechenaufwand des Gauss-Eliminationsverfahrens in Algorithmus Algorithm 2.2 liegt in O(n3)\mathcal{O}(n^3)O(n3) bzw. genauer 13n3+O(n2)\frac{1}3 n^3+ \mathcal{O}(n^2)31​n3+O(n2).

      Wie genau kommen wir auf diesen Rechenaufwand? Woher kommt das 1/3?