Wo ist das Problem? Du weißt schon, wie man Listen z.B. mit List-Comprehension erzeugt. Das mußt Du doch nur auf Deine URLs anwenden.
Deine Kommentare sind übrigens wenig hilfreich. Dass ganz am Anfang Importe stehen, sieht man am ›import‹. Das was Du als VARIABLES beschreibst, sind zum einen Konstanten zum anderen nicht vom SCRIPT zu unterscheiden, weil da ja auch schon weitere Funktionen aufgerufen werden. Alles was da SCRIPT heißt und auch der Teil davor gehört eigentlich in eine Funktion. Variablennamen sollten nicht den Typ im Namen haben, denn der könnte sich leicht ändern, z.B. könnte man ohne weiteres aus der link_liste einen Generator machen. ›findAll‹ sollte man nicht mehr verwenden, weil es nicht der Namenskonvention entspricht. Dafür gibt es nun ›find_all‹. In der letzten Zeile versuchst Du auch auf die Liste link_list mit einem String zugreifen, was nicht funktionieren kann. `link` wird dagegen gar nicht verwendet.
URLs setzt man mit urllib.parse.urljoin zusammen.
Code: Alles auswählen
import requests
from bs4 import BeautifulSoup
from urllib.parse import urljoin
URL = 'https://testurl.de/beispielseite.html'
def main():
headers = {"My-User-Agent-placeholder"}
page = requests.get(URL, headers=headers)
soup = BeautifulSoup(page.content, 'html.parser')
links = [div.a for div in soup.find_all('div', attrs={'class' : 'news-morelink'})]
for link in link_list:
print(urljoin(URL, link['href']))
if __name__ == '__main__':
main()