Relations entre la Californie et les États-Unis
De Wikipedia, l'encyclopédie encyclopedia
Les relations entre la Californie et les États-Unis sont les relations entre l'État fédéré de Californie avec la Fédération, c'est-à-dire le gouvernement fédéral américain, depuis l'adhésion de la Californie en 1850.