ChatGPT leistet in manchen Bereichen Erstaunliches: Rasche, gut formulierte Antworten auf schwierige Fragen, – spannend ist es auch, der Software beim „Denken“ und Formulieren zusehen zu können. Originell weiters, die Software Gedichte oder Kurzgeschichten schreiben zu lassen.
Heikel wird es aber, wenn Antworten zwar als klare Auskünfte formuliert, aber leider eindeutig falsch sind.
Nachfolgend ein kleiner Test, – die Aufgabenstellung war: Mietrechtsgesetz in Österreich
Die einleitenden Sätze passen im Großen und Ganzen.
Dann werden wichtige Regelungen aufgezählt und hier wirds sehr problematisch.
– Thema Befristung: Lt. Chat GPT muss bei Befristung eine Begründung für die Befristung vorliegen. Woher auch immer die Software diese Information hat, für Österreich gilt das jedenfalls nicht.
– Thema Vorkaufsrecht: ChatGPT schreibt, dass Mieter bei Verkauf der Wohnung ein Vorkaufsrecht haben, – das ist eindeutig falsch.
– Thema Mietzinsbildung: Der Vermieter darf lt. ChatGPT den Mietzins nicht frei festlegen, sonder muss sich an gesetzlich vorgegebene Richtwerte halten. Ab hier wird’s komplex, die Stichworte müssten lauten: Teilanwendung und Vollanwendung des Mietrechtsgesetzes.
Nur in einem Fall kann ChatGPT voll und ganz zugestimmt werden: Die Software empfiehlt, im konkreten Fall einen Experten zu konsultieren.
Fazit: Es geht bei Immobilienangelegenheiten um sehr viel Geld. So verführerisch es auch ist, auf komplexe Fragen einfachen Antworten vertrauen zu können, empfehlenswert ist es nicht. Hinzu kommt, dass es bei ChatGPT keinerlei Quellenangaben oder weiterführende Links gibt.
Aber vielleicht kommt das ja noch, dann wird’s interessant.