In dieser Arbeit werden drei Varianten des Metropolis-Hastings Algorithmus betrachtet. Simulated Tempering, Swapping und Equi-Energy Sampling sollen durch Hinzufügen eines Temperaturschritts die Konvergenzgeschwindigkeit dieser Algorithmen gegenüber dem zugrunde liegenden Metropolis-Hastings Algorithmus in Situationen verbessern, in denen dieser langsam gegen das gewünschte Wahrscheinlichkeitsmaß konvergiert. Es wird gezeigt, dass der Swapping Algorithmus im Generalized-Curie-Weiss Modell in polynomiell vielen Schritten konvergiert. Im Blume-Emery-Grifiths Modell ist die Konvergenz in einem Parameterbereich auch schnell, während sie in einem anderen Parameterbereich langsam ist. Auch für die Spingläser Random-Energy-Model und Generalized-Random-Energy-Model benötigen Simulated Tempering und Swapping exponentiell viele Schritte um nahe an die gewünschte Verteilung zu gelangen. Schließlich wird noch gezeigt, dass der Equi-Energy Algorithmus im Potts Modell langsam mischt.