diff --git a/.DS_Store b/.DS_Store
index 1244350d5ced8e4f650fbba758d06919976b01e3..db94a61915fa8db1c1476cca3b6b0028210da452 100644
Binary files a/.DS_Store and b/.DS_Store differ
diff --git a/tg_hr_check.py b/tg_hr_check.py
new file mode 100644
index 0000000000000000000000000000000000000000..b3f84b93a8586409fb98f505840cb567e7cf3a97
--- /dev/null
+++ b/tg_hr_check.py
@@ -0,0 +1,104 @@
+from src.aichecker.check_tg import *
+from src.aichecker.detectora import query_detectora
+from src.aichecker.aiornot import query_aiornot
+from src.aichecker.transcribe import convert_mp4_to_mp3, convert_ogg_to_mp3
+from ast import literal_eval
+import re
+
+# KONSTANTEN
+N = 100
+DETECTORA_T = 0.8 # 80%
+AIORNOT_T = 0.5 # 50% - AIORNOT selbst setzt den Wert sehr niedrig an.    
+TEST = False
+
+
+# Hilfsfunktion: CSV einlesen und als df ausgeben
+def convert_to_obj(val):
+    if pd.isna(val):
+        return None
+    try:
+        return literal_eval(val)
+    except (ValueError, SyntaxError):
+        return val
+
+
+def reimport_csv(fname):
+    df = pd.read_csv(fname)
+    # Diese Spalten sind dict:
+    structured_columns = ['photo', 'sticker', 'video', 'voice', 'forwards', 'links']
+    for c in structured_columns:
+        df[c] = df[c].apply(convert_to_obj)
+    return df
+
+def is_hr_url(url):
+    if 'hr.de' in url:
+        return True
+    if 'hessenschau.de' in url:
+        return True
+    if 'hrinforadio.de' in url:
+        return True
+    return False
+
+def find_hr_links(text):
+    # Regex, um Links zu extrahieren
+    if text is None or text=="":
+        return []
+    urls = re.findall(r'https?://[^\s]+', text)
+    hr_links = [url for url in urls if is_hr_url(url)]
+    return hr_links
+
+if __name__ == "__main__":
+    # Datei mit den Channels einlesen
+    # Schau, ob es schon Daten gibt
+    if not os.path.exists('tg-checks'):
+        os.makedirs('tg-checks')
+    filename = f'tg-checks/config.csv'
+    if os.path.exists(filename):
+        channels_df = pd.read_csv(filename)
+        print(f"Config-Datei mit {len(channels_df)} Kanälen")
+        channels = channels_df['Kanal'].to_list()
+    else:
+        channels=['fragunsdochdasoriginal','freiheitffm']
+    hr_links = []
+    for c in channels: 
+        profile = tgc_profile(c)
+        if profile is None:
+                print(f"Kein Konto mit dem Namen {c} gefunden.")
+        else:
+            last_post = profile['n_posts']
+            print(f"Analysiert wird: {profile['name']}")
+            print(f"{profile['description']}")
+            print()
+            print(f"Subscriber: {profile['subscribers']}")
+            print(f"Posts: {profile['n_posts']}")
+            print(f"Fotos: {profile['photos']}")
+            print(f"Videos: {profile['videos']}")
+            print(f"Links: {profile['links']}")
+            print()
+            # Schau, ob es schon Daten gibt
+            if not os.path.exists('tg-checks'):
+                os.makedirs('tg-checks')
+            filename = f'tg-checks/{c}.csv'
+            if os.path.exists(filename):
+                existing_df = reimport_csv(filename)
+                start_post = max(existing_df['nr'])
+                print(f"Dieser Kanal wurde schon einmal ausgelesen, zuletzt Post Nr.: {start_post} - seitdem {last_post-start_post} neue Posts")
+            else: 
+                start_post = last_post-N+1
+                print(f"Noch nicht gespeichert. Importiere {N} Posts bis zum letzten: {last_post}.")        
+            # Lies die aktuellsten Posts, sichere und analysiere sie
+            #
+            print("Einlesen {start_post} bis {last_post}...")
+            posts = tgc_read_range(c, start_post, last_post, save=False, describe= False)
+            # Nach hr-Links suchen
+            for post in posts:
+                interessant = find_hr_links(post['text'])
+                if post['links']:
+                    interessant.extend(post['links'])
+            hr_links.extend(interessant)
+            print(f"Potenziell interessant: {interessant}")
+            # Posts anhängen an das csv dieses Kanals
+            df = pd.DataFrame(posts)
+            if ('existing_df' in globals()):
+                df = pd.concat([existing_df, df]).drop_duplicates(subset=['nr']).reset_index(drop=True)
+            df.to_csv(f'tg-checks/{c}.csv', index=False)  # Save to CSV for example