Wystarczy jeden myk. W kodzie strony obsługującej newsy robisz prostą rzecz: pobieras tytuł i przepuszczasz go przez funkcję która tworzy Twój prawidłowy seo-url. Jeśli wejście nastąpiło z innego url niż ten właśnie utworzony, robisz przekierowanie ze statusem 301. A skąd pobrać adres jakim się weszło? $_SERVER['REQUEST_URI']

Porównać oba i już wiesz czy prawidłowy link czy nie. Jeśli nieprawidłowy - 301 na prawidłowy i nawet google nie ma prawa się burzyć. Link zawsze będzie aktualny, nawet jeśli ktoś zmieni tytuł, bo przy wejściu z innego i tak ewentualny bot dostanie info, że dana strona została na stałe przeniesiona pod inny adres i trzeba to uaktualnić oraz podąży za przekierowaniem. Double content nie zaistnieje.
Canonical może, ale nie musi być przyjaznym linkiem. To zwykły link jak każdy inny. Określa on jedynie, który z linków w przypadku wieloznaczności jest tym głównym, a które są tylko "mirrorami"
Tak... Nagłówki są istotne, gdyż na ich podstawie można utworzyć "spis treści" danej strony. Jak sama nazwa mówi, jest to nagłówek, a więc istotna treść, która niejako definiuje
co jest na stronie. H1 sam w sobie jest elementem blokowym, więc użycie div-a jest moim zdaniem nieco wymyślaniem koła na nowo. Dla h1 z tytułem ustaw więc te same właściwości co dla owego div i masz po sprawie. Każdy kolejny Hx jest mniej ważny. Gdy one się skończą, rolę specjalnych elementów przejmują inne znaczniki a jednym z nich jest strong. Właśnie dlatego słowa kluczowe i te ważniejsze dla treści są pogrubione. To nie tylko specjalny zabieg by przyciągnąć uwagę czytelnika. To także znak dla bota indeksującego, że owo słowo jest ważne w kontekście całej strony i jest dla tekstu kluczowe. Dlatego wszystkie ważniejsze słowa i frazy upycha się w nagłówki albo wzmocnienia

To jest SEO nieco innego typu niż tylko dbanie o znaczniki meta (notabene prawie już ignorowane) i skupiające się na tym, co jest istotne dla prawdziwego internauty - treści. Przy czym jeśli masz za dużo takich "wzmocnień seo", boty je zignorują, czyli osiągasz efekt odwrotny do zamierzonego. Trzeba robić to z głową.
Sitemapa w XML jest po to, by dać botowi od razu bazę linków, tak by ich nie szukał krążąc po wszystkich podstronach. Dostanie w sitemap.xml od razu kilkaset i niech je sobie odwiedza oraz trawi treść

Sitemapa nie może być za duża, góra 2-3 mega. Jeśli jest większa, trzeba ją pofragmentować i wewnątrz wskazać gdzie są poszczególne części.
Co do znaczników meta to zazwyczaj to co masz w description, znajduje się w google jako krótki opis, dlatego jest tam i tak pewien limit znaków. Zazwyczaj góra kilka krótkich zdań. Zwróć jednak uwagę, że nawet tzw. zajawka ( czyli ów krótki wstęp ) jest kawałkiem html, a do description powinien trafić tekst bez znaczników. Umieszczanie w tym tagu stripowanej z tagów zajawki ma jak najbardziej sens. Tylko nie zapomnij jeszcze o konwersji apostrofów i znaków specjalnych. Czemu? Sam sprawdź. Dodam tylko, że boty dodatkowo nie lubią gdy w title i tagach meta pewne znaki występują, co kończy się ignorowaniem tego co za nimi.
Skrócone wersje to nie problem. Dopóki są tylko małym elementem strony, nie stanowią problemu jeśli zaistnieje 2 lub więcej podstron, które jako jeden z fragmentów layoutu będą je wyświetlać. A z tego co widziałem, to nowy layout na głównej ma więcej treści i tym samym nie powinno zakwalifikować głównej i wyświetlającej newsy najnowsze jako identycznych (double content). Tak więc ten problem Ci odpada.
PS: Jak sam widzisz, to że się w temacie o wyjątkach nie do końca zgadzamy, nie ma wpływu na to, żebym Ci w innym nie mógł pomagać doświadczeniem innego typu niż stricte programistyczne

Pracuję głównie jako webdeveloper, ale jestem w firmie od wszystkiego. Począwszy od helpdesku dla klientów i pracowników, majstrowanie przy hardwarze i softwarze, pisania skryptów administracyjnych, poprzez developerkę i SEO, a także momentami copywriter i grafik. Normalnie informatyk renesansu