Как строится обратная матрица якоби как это удобно сделать для двух или трех уравнений

Добавил пользователь Владимир З.
Обновлено: 10.09.2024

Метод Якоби — разновидность метода простой итерации для решения системы линейных алгебраических уравнений, которые обладают свойством строгого диагонального преобладания. Назван в честь Карла Густава Якоби.

Постановка задачи

Возьмём систему линейных уравнений:

A x -> = b -> >=>> , где A = ( a 11 … a 1 n ? ? ? a n 1 … a n n ) , b -> = ( b 1 ? b n ) a_&ldots &a_vdots &ddots &vdots a_&ldots &a_end> ight),quad >=left(<eginb_vdots b_end> ight)>

Описание метода

Для того, чтобы построить итеративную процедуру метода Якоби, необходимо провести предварительное преобразование системы уравнений A x -> = b -> >=>> к итерационному виду x -> = B x -> + g -> >=B>+>> . Оно может быть осуществлено по одному из следующих правил:

  • B = E - D - 1 A = D - 1 ( D - A ) , g -> = D - 1 b -> ; A=D^(D-A),quad >=D^>;>
  • B = - D - 1 ( L + U ) = - D - 1 ( A - D ) , g -> = D - 1 b -> =D^>>
  • D i i - 1 = 1 / D i i , D i i ? 0 , i = 1 , 2 , . . . , n ; ^=1/D_,D_ eq 0,,i=1,2. nquad ;>

где в принятых обозначениях D означает матрицу, у которой на главной диагонали стоят соответствующие элементы матрицы A , а все остальные нули; тогда как матрицы U и L содержат верхнюю и нижнюю треугольные части A , на главной диагонали которых нули, E — единичная матрица.

Тогда процедура нахождения решения имеет вид:

Или в виде поэлементной формулы:

x i ( k + 1 ) = 1 a i i ( b i - ? j ? i a i j x j ( k ) ) , i = 1 , 2 , … , n . ^=>>left(b_-sum _a_x_^ ight),quad i=1,2,ldots ,n.>

где k счётчик итерации.

В отличие от метода Гаусса-Зейделя мы не можем заменять x i ( k ) ^> на x i ( k + 1 ) ^> в процессе итерационной процедуры, так как эти значения понадобятся для остальных вычислений. Это наиболее значимое различие между методом Якоби и методом Гаусса-Зейделя решения СЛАУ. Таким образом на каждой итерации придётся хранить оба вектора приближений: старый и новый.

Условие сходимости

Приведем достаточное условие сходимости метода.

Условие остановки

Условие окончания итерационного процесса при достижении точности e имеет вид:

? x ( k + 1 ) - x ( k ) ?<= 1 - q q e . -x^parallel leq >varepsilon .>

Для достаточно хорошо обусловленной матрицы B (при ? B ?= q const double eps = 0.001; /// norm) norm = fabs(X[h] - TempX[h]); X[h] = TempX[h]; > > while (norm > eps); delete[] TempX; >

2. Методы решения систем линейных алгебраических уравнений

К решению систем линейных алгебраических уравнений сводятся многочисленные практические задачи ( по некоторым оценкам более 75% всех задач). Можно с полным основанием утверждать, что решение линейных систем является одной из самых распространенных и важных задач вычислительной математики.

Конечно, существует много методов и современных пакетов прикладных программ для решения СЛАУ, но для того, чтобы их успешно использовать, необходимо разбираться в основах построения методов и алгоритмов, иметь представления о недостатках и преимуществах используемых методов.

Постановка задачи

Требуется найти решение системы m линейных уравнений, которая записывается в общем виде как

Эту систему уравнений можно записать также в матричном виде:

A – матрица системы, – вектор правых частей, – вектор неизвестных.

При известных A и требуется найти такие , при подстановке которых в систему уравнений она превращается в тождество.

Необходимым и достаточным условием существования единственного решения СЛАУ является условие det A?0, т.е. определитель матрицы A не равен нулю. В случае равенства нулю определителя матрица A называется вырожденной и при этом СЛАУ либо не имеет решения, либо имеет их бесчисленное множество.

В дальнейшем будем предполагать наличие единственного решения.

Все методы решения линейных алгебраических задач можно разбить на два класса: прямые (точные) и итерационные (приближенные).

Прямые методы решения СЛАУ

Метод Крамера

При небольшой размерности системы m (m = 2,…,5) на практике часто используют формулы Крамера для решения СЛАУ:

(i = 1, 2, …, m). Эти формулы позволяют находить неизвестные в виде дробей, знаменателем которых является определитель матрицы системы, а числителем – определители матриц Ai, полученных из A заменой столбца коэффициентов при вычисляемом неизвестном столбцом свободных членов. Так А1 получается из матрицы А заменой первого столбца на столбец правых частей f.

Например, для системы двух линейных уравнений

Размерность системы (т.е., число m) является главным фактором, из–за которого формулы Крамера не могут быть использованы для численного решения СЛАУ большого порядка. При непосредственном раскрытии определителей решение системы с m неизвестными требует порядка m!*m арифметических операций. Таким образом, для решения системы, например, из m = 100 уравнений потребуется совершить 10 158 вычислительных операций (процесс займёт примерно 10 19 лет), что не под силу даже самым мощным современным ЭВМ

Метод обратной матрицы

Если det A ? 0, то существует обратная матрица . Тогда решение СЛАУ записывается в виде: . Следовательно, решение СЛАУ свелось к умножению известной обратной матрицы на вектор правых частей. Таким образом, задача решения СЛАУ и задача нахождения обратной матрицы связаны между собой, поэтому часто решение СЛАУ называют задачей обращения матрицы. Проблемы использования этого метода те же, что и при использовании метода Крамера: нахождение обратной матрицы – трудоемкая операция.

Метод Гаусса

Наиболее известным и популярным прямым методом решения СЛАУ является метод Гаусса. Этот метод заключается в последовательном исключении неизвестных. Пусть в системе уравнений

первый элемент . Назовем его ведущим элементом первой строки. Поделим все элементы этой строки на и исключим x1 из всех последующих строк, начиная со второй, путем вычитания первой (преобразованной), умноженной на коэффициент при в соответствующей строке. Получим

Если , то, продолжая аналогичное исключение, приходим к системе уравнений с верхней треугольной матрицей

Из нее в обратном порядке находим все значения xi:

Процесс приведения к системе с треугольной матрицей называется прямым ходом, а нахождения неизвестных – обратным. В случае если один из ведущих элементов равен нулю, изложенный алгоритм метода Гаусса неприменим. Кроме того, если какие–либо ведущие элементы малы, то это приводит к усилению ошибок округления и ухудшению точности счета. Поэтому обычно используется другой вариант метода Гаусса – схема Гаусса с выбором главного элемента. Путем перестановки строк, а также столбцов с соответствующей перенумерацией коэффициентов и неизвестных добиваются выполнения условия:

т.е. осуществляется выбор первого главного элемента. Переставляя уравнения так, чтобы в первом уравнении коэффициент a11 был максимальным по модулю. Разделив первую строку на главный элемент, как и прежде, исключают x1 из остальных уравнений. Затем для оставшихся столбцов и строк выбирают второй главный элемент и т.д.

Рассмотрим применение метода Гаусса с выбором главного элемента на примере следующей системы уравнений:

В первом уравнении коэффициент при =0, во втором = 1 и в третьем = -2, т.е. максимальный по модулю коэффициент в третьем уравнении. Поэтому переставим третье и первое уравнение:

Исключим из второго и третьего уравнений с помощью первого. Во втором уравнении исключать не надо. Для исключения из третьего уравнения умножим первое на 0.5 и сложим с третьим:

Рассмотрим второе и третье уравнения. Максимальный по модулю элемент при в третьем. Поэтому поместим его на место второго:

Исключим из третьего уравнения. Для этого умножим второе на -0.5 и сложим с третьим:

Такая перестановка уравнений необходима для того, чтобы уменьшить влияние ошибок округления на конечный результат.

Часто возникает необходимость в решении СЛАУ, матрицы которые являются слабо заполненными, т.е. содержат много нулевых элементов. В то же время эти матрицы имеют определенную структуру. Среди таких систем выделим системы с матрицами ленточной структуры, в которых ненулевые элементы располагаются на главной диагонали и на нескольких побочных диагоналях. Для решения систем с ленточными матрицами коэффициентов вместо метода Гаусса можно использовать более эффективные методы. Например, метод прогонки, который мы рассмотрим позже при решении краевой задачи для обыкновенного дифференциального уравнения второго порядка.

Итерационные методы решения линейных алгебраических систем

Метод простой итерации или метод Якоби

Напомним, что нам требуется решить систему линейных уравнений, которая в матричном виде записывается как:

Предположим, что диагональные элементы матриц A исходной системы не равны 0 (aii ? 0, i = 1, 2, …, n). Разрешим первое уравнение системы относительно x1, второе относительно x2 и т.д. Получим следующую эквивалентную систему, записанную в скалярном виде:

Теперь, задав нулевое приближение , по рекуррентным соотношениям (1) можем выполнять итерационный процесс, а именно:

Аналогично находятся следующие приближения , где в (2) вместо необходимо подставить .

Или в общем случае:

Условие окончания итерационного процесса .

Достаточное условие сходимости: Если выполнено условие диагонального преобладания, т.е. , то итерационный процесс (3) сходится при любом выборе начального приближения. Если исходная система уравнений не удовлетворяет условию сходимости, то ее приводят к виду с диагональным преобладанием.

Выбор начального приближения влияет на количество итераций, необходимых для получения приближенного решения. Наиболее часто в качестве начального приближения берут или .

Замечание. Указанное выше условие сходимости является достаточным, т.е. если оно выполняется, то процесс сходится. Однако процесс может сходиться и при отсутствии диагонального преобладания, а может и не сойтись.

Эта тема является одной из самых ненавистных среди студентов. Хуже, наверное, только определители.

Фишка в том, что само понятие обратного элемента (и я сейчас не только о матрицах) отсылает нас к операции умножения. Даже в школьной программе умножение считается сложной операцией, а уж умножение матриц — вообще отдельная тема, которой у меня посвящён целый параграф и видеоурок.

Сегодня мы не будем вдаваться в подробности матричных вычислений. Просто вспомним: как обозначаются матрицы, как они умножаются и что из этого следует.

Повторение: умножение матриц

Прежде всего договоримся об обозначениях. Матрицей $A$ размера $\left[ m\times n \right]$ называется просто таблица из чисел, в которой ровно $m$ строк и $n$ столбцов:

Чтобы случайно не перепутать строки и столбцы местами (поверьте, на экзамене можно и единицу с двойкой перепутать — что уж говорить про какие-то там строки), просто взгляните на картинку:


Определение индексов для клеток матрицы

Почему система координат размещена именно в левом верхнем углу? Да потому что именно оттуда мы начинаем читать любые тексты. Это очень просто запомнить.

А почему ось $x$ направлена именно вниз, а не вправо? Опять всё просто: возьмите стандартную систему координат (ось $x$ идёт вправо, ось $y$ — вверх) и поверните её так, чтобы она охватывала матрицу. Это поворот на 90 градусов по часовой стрелке — его результат мы и видим на картинке.

В общем, как определять индексы у элементов матрицы, мы разобрались. Теперь давайте разберёмся с умножением.

Определение. Матрицы $A=\left[ m\times n \right]$ и $B=\left[ n\times k \right]$, когда количество столбцов в первой совпадает с количеством строк во второй, называются .

Именно в таком порядке. Можно сумничать и сказать, мол, матрицы $A$ и $B$ образуют упорядоченную пару $\left( A;B \right)$: если они согласованы в таком порядке, то совершенно необязательно, что $B$ и $A$, т.е. пара $\left( B;A \right)$ — тоже согласована.

Умножать можно только согласованные матрицы.

Определение. $A=\left[ m\times n \right]$ и $B=\left[ n\times k \right]$ — это новая матрица $C=\left[ m\times k \right]$, элементы которой $_>$ считаются по формуле:

\[_>=\sum\limits_^>>\cdot _>\]

Другими словами: чтобы получить элемент $_>$ матрицы $C=A\cdot B$, нужно взять $i$-строку первой матрицы, $j$-й столбец второй матрицы, а затем попарно перемножить элементы из этой строки и столбца. Результаты сложить.

Да, вот такое суровое определение. Из него сразу следует несколько фактов:

  1. Умножение матриц, вообще говоря, некоммутативно: $A\cdot B\ne B\cdot A$;
  2. Однако умножение ассоциативно: $\left( A\cdot B \right)\cdot C=A\cdot \left( B\cdot C \right)$;
  3. И даже дистрибутивно: $\left( A+B \right)\cdot C=A\cdot C+B\cdot C$;
  4. И ещё раз дистрибутивно: $A\cdot \left( B+C \right)=A\cdot B+A\cdot C$.

Дистрибутивность умножения пришлось отдельно описывать для левого и правого множителя-суммы как раз из-за некоммутативности операции умножения.

Если всё же получается так, что $A\cdot B=B\cdot A$, такие матрицы называются перестановочными.

Среди всех матриц, которые там на что-то умножаются, есть особые — те, которые при умножении на любую матрицу $A$ снова дают $A$:

Определение. Матрица $E$ называется , если $A\cdot E=A$ или $E\cdot A=A$. В случае с квадратной матрицей $A$ можем записать:

\[A\cdot E=E\cdot A=A\]

Единичная матрица — частый гость при решении матричных уравнений. И вообще частый гость в мире матриц.:)

А ещё из-за этой $E$ кое-кто придумал всю ту дичь, которая будет написана дальше.

Что такое обратная матрица

Поскольку умножение матриц — весьма трудоёмкая операция (приходится перемножать кучу строчек и столбцов), то понятие обратной матрицы тоже оказывается не самым тривиальным. И требующим некоторых пояснений.

Ключевое определение

Что ж, пора познать истину.

Казалось бы, всё предельно просто и ясно. Но при анализе такого определения сразу возникает несколько вопросов:

Насчёт алгоритмов вычисления — об этом мы поговорим чуть позже. Но на остальные вопросы ответим прямо сейчас. Оформим их в виде отдельных утверждений-лемм.

Основные свойства

Что ж, уже неплохо. Мы видим, что обратимыми бывают лишь квадратные матрицы. Теперь давайте убедимся, что обратная матрица всегда одна.

Приведённые рассуждения почти дословно повторяют доказательство единственность обратного элемента для всех действительных чисел $b\ne 0$. Единственное существенное дополнение — учёт размерности матриц.

Впрочем, мы до сих пор ничего не знаем о том, всякая ли квадратная матрица является обратимой. Тут нам на помощь приходит определитель — это ключевая характеристика для всех квадратных матриц.

На самом деле это требование вполне логично. Сейчас мы разберём алгоритм нахождения обратной матрицы — и станет совершенно ясно, почему при нулевом определителе никакой обратной матрицы в принципе не может существовать.

Определение. — это квадратная матрица размера $\left[ n\times n \right]$, чей определитель равен нулю.

Таким образом, мы можем утверждать, что всякая обратимая матрица является невырожденной.

Как найти обратную матрицу

Сейчас мы рассмотрим универсальный алгоритм нахождения обратных матриц. Вообще, существует два общепринятых алгоритма, и второй мы тоже сегодня рассмотрим.

Тот, который будет рассмотрен сейчас, очень эффективен для матриц размера $\left[ 2\times 2 \right]$ и — частично — размера $\left[ 3\times 3 \right]$. А вот начиная с размера $\left[ 4\times 4 \right]$ его лучше не применять. Почему — сейчас сами всё поймёте.

Алгебраические дополнения

Начнём с главного. Пусть имеется квадратная матрица размера $A=\left[ n\times n \right]$, элементы которой именуются $>$. Тогда для каждого такого элемента можно определить алгебраическое дополнение:

Ещё раз. Алгебраическое дополнение к элементу матрицы с координатами $\left( i;j \right)$ обозначается как $>$ и считается по схеме:

  1. Сначала вычёркиваем из исходной матрицы $i$-строчку и $j$-й столбец. Получим новую квадратную матрицу, и её определитель мы обозначаем как $M_^$.
  2. Затем умножаем этот определитель на $<<\left( -1 \right)>^>$ — поначалу это выражение может показаться мозговыносящим, но по сути мы просто выясняем знак перед $M_^$.
  3. Считаем — получаем конкретное число. Т.е. алгебраическое дополнение — это именно число, а не какая-то новая матрица и т.д.

Таким образом сегодня мы используем слегка упрощённое определение. Но как мы увидим в дальнейшем, его окажется более чем достаточно. Куда важнее следующая штука:

Определение. Союзная матрица $S$ к квадратной матрице $A=\left[ n\times n \right]$ — это новая матрица размера $\left[ n\times n \right]$, которая получается из $A$ заменой $>$ алгебраическими дополнениями $>$:

Что ж, всё это очень мило, но зачем это нужно? А вот зачем.

Основная теорема

Вернёмся немного назад. Помните, в Лемме 3 утверждалось, что обратимая матрица $A$ всегда не вырождена (т.е. её определитель отличен от нуля: $\left| A \right|\ne 0$).

Так вот, верно и обратное: если матрица $A$ не вырождена, то она всегда обратима. И даже существует схема поиска $>$. Зацените:

. Пусть дана квадратная матрица $A=\left[ n\times n \right]$, причём её определитель отличен от нуля: $\left| A \right|\ne 0$. Тогда обратная матрица $>$ существует и считается по формуле:

\[>=\frac<\left| A \right|>\cdot ^>\]

А теперь — всё то же самое, но разборчивым почерком. Чтобы найти обратную матрицу, нужно:

  1. Посчитать определитель $\left| A \right|$ и убедиться, что он отличен от нуля.
  2. Составить союзную матрицу $S$, т.е. посчитать 100500 алгебраических дополнений $>$ и расставить их на месте $>$.
  3. Транспонировать эту матрицу $S$, а затем умножить её на некое число $q=/<\left| A \right|>\;$.

Как видите, в конце каждого примера мы выполняли проверку. В связи с этим важное замечание:

Не ленитесь выполнять проверку. Умножьте исходную матрицу на найденную обратную — должна получиться $E$.

Выполнить эту проверку намного проще и быстрее, чем искать ошибку в дальнейших вычислениях, когда, например, вы решаете матричное уравнение.

Альтернативный способ

Но не переживайте: есть альтернативный алгоритм, с помощью которого можно невозмутимо найти обратную хоть для матрицы $\left[ 10\times 10 \right]$. Но, как это часто бывает, для рассмотрения этого алгоритма нам потребуется небольшая теоретическая вводная.

Элементарные преобразования

Среди всевозможных преобразований матрицы есть несколько особых — их называют элементарными. Таких преобразований ровно три:

  1. Умножение. Можно взять $i$-ю строку (столбец) и умножить её на любое число $k\ne 0$;
  2. Сложение. Прибавить к $i$-й строке (столбцу) любую другую $j$-ю строку (столбец), умноженную на любое число $k\ne 0$ (можно, конечно, и $k=0$, но какой в этом смысл? Ничего не изменится же).
  3. Перестановка. Взять $i$-ю и $j$-ю строки (столбцы) и поменять местами.

Почему эти преобразования называются элементарными (для больших матриц они выглядят не такими уж элементарными) и почему их только три — эти вопросы выходят за рамки сегодняшнего урока. Поэтому не будем вдаваться в подробности.

Важно другое: все эти извращения нам предстоит выполнять над присоединённой матрицей. Да, да: вы не ослышались. Сейчас будет ещё одно определение — последнее в сегодняшнем уроке.

Присоединённая матрица

Наверняка в школе вы решали системы уравнений методом сложения. Ну, там, вычесть из одной строки другую, умножить какую-то строку на число — вот это вот всё.

Определение. Пусть дана матрица $A=\left[ n\times n \right]$ и единичная матрица $E$ такого же размера $n$. Тогда $\left[ A\left| E \right. \right]$ — это новая матрица размера $\left[ n\times 2n \right]$, которая выглядит так:

\[\left[ A\left| E \right. \right]=\left[ \begin> & > & . & > & 1 & 0 & . & 0 \\> & > & . & > & 0 & 1 & . & 0 \\. & . & . & . & . & . & . & . \\> & > & . & > & 0 & 0 & . & 1 \\\end \right]\]

Короче говоря, берём матрицу $A$, справа приписываем к ней единичную матрицу $E$ нужного размера, разделяем их вертикальной чертой для красоты — вот вам и присоединённая.:)

В чём прикол? А вот в чём:

Теорема. Пусть матрица $A$ обратима. Рассмотрим присоединённую матрицу $\left[ A\left| E \right. \right]$. Если с помощью элементарных преобразований строк привести её к виду $\left[ E\left| B \right. \right]$, т.е. путём умножения, вычитания и перестановки строк получить из $A$ матрицу $E$ справа, то полученная слева матрица $B$ — это обратная к $A$:

\[\left[ A\left| E \right. \right]\to \left[ E\left| B \right. \right]\Rightarrow B=>\]

Вот так всё просто! Короче говоря, алгоритм нахождения обратной матрицы выглядит так:

  1. Записать присоединённую матрицу $\left[ A\left| E \right. \right]$;
  2. Выполнять элементарные преобразования строк до тех пор, пока права вместо $A$ не появится $E$;
  3. Разумеется, слева тоже что-то появится — некая матрица $B$. Это и будет обратная;
  4. PROFIT!:)

Конечно, сказать намного проще, чем сделать. Поэтому давайте рассмотрим парочку примеров: для размеров $\left[ 3\times 3 \right]$ и $\left[ 4\times 4 \right]$.

Решение систем линейных алгебраических уравнений (СЛАУ) с помощью обратной матрицы (иногда этот способ именуют ещё матричным методом или методом обратной матрицы) требует предварительного ознакомления с таким понятием как матричная форма записи СЛАУ. Метод обратной матрицы предназначен для решения тех систем линейных алгебраических уравнений, у которых определитель матрицы системы отличен от нуля. Естественно, при этом подразумевается, что матрица системы квадратна (понятие определителя существует только для квадратных матриц). Суть метода обратной матрицы можно выразить в трёх пунктах:

  1. Записать три матрицы: матрицу системы $A$, матрицу неизвестных $X$, матрицу свободных членов $B$.
  2. Найти обратную матрицу $A^$.
  3. Используя равенство $X=A^\cdot B$ получить решение заданной СЛАУ.

Любую СЛАУ можно записать в матричной форме как $A\cdot X=B$, где $A$ – матрица системы, $B$ – матрица свободных членов, $X$ – матрица неизвестных. Пусть матрица $A^$ существует. Умножим обе части равенства $A\cdot X=B$ на матрицу $A^$ слева:

Так как $A^\cdot A=E$ ($E$ – единичная матрица), то записанное выше равенство станет таким:

Так как $E\cdot X=X$, то:

Перед переходом к чтению примеров рекомендую ознакомиться с методами вычисления обратных матриц, изложенными здесь.

Запишем матрицу системы $A$, матрицу свободных членов $B$ и матрицу неизвестных $X$.

Найдём обратную матрицу к матрице системы, т.е. вычислим $A^$. В примере №2 на странице, посвящённой нахождению обратных матриц, обратная матрица была уже найдена. Воспользуемся готовым результатом и запишем $A^$:

Теперь подставим все три матрицы ($X$, $A^$, $B$) в равенство $X=A^\cdot B$. Затем выполним умножение матриц в правой части данного равенства.

$$ \left(\begin x_1\\ x_2 \end\right)= -\frac\cdot\left(\begin 8 & -7\\ -9 & -5\end\right)\cdot \left(\begin 29\\ -11 \end\right)=\\ =-\frac\cdot \left(\begin 8\cdot 29+(-7)\cdot (-11)\\ -9\cdot 29+(-5)\cdot (-11) \end\right)= -\frac\cdot \left(\begin 309\\ -206 \end\right)=\left(\begin -3\\ 2\end\right). $$

Итак, мы получили равенство $\left(\begin x_1\\ x_2 \end\right)=\left(\begin -3\\ 2\end\right)$. Из этого равенства имеем: $x_1=-3$, $x_2=2$.

Ответ: $x_1=-3$, $x_2=2$.

Запишем матрицу системы $A$, матрицу свободных членов $B$ и матрицу неизвестных $X$.

Теперь настал черёд найти обратную матрицу к матрице системы, т.е. найти $A^$. В примере №3 на странице, посвящённой нахождению обратных матриц, обратная матрица была уже найдена. Воспользуемся готовым результатом и запишем $A^$:

$$ A^=\frac\cdot \left( \begin 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & -3 & 37\end \right). $$

Теперь подставим все три матрицы ($X$, $A^$, $B$) в равенство $X=A^\cdot B$, после чего выполним умножение матриц в правой части данного равенства.

$$ \left(\begin x_1\\ x_2 \\ x_3 \end\right)= \frac\cdot \left( \begin 6 & -5 & 1 \\ 8 & 2 & -16 \\ -12 & -3 & 37\end \right)\cdot \left(\begin -1\\0\\6\end\right)=\\ =\frac\cdot \left(\begin 6\cdot(-1)+(-5)\cdot 0+1\cdot 6 \\ 8\cdot (-1)+2\cdot 0+(-16)\cdot 6 \\ -12\cdot (-1)+(-3)\cdot 0+37\cdot 6 \end\right)=\frac\cdot \left(\begin 0\\-104\\234\end\right)=\left(\begin 0\\-4\\9\end\right) $$

Итак, мы получили равенство $\left(\begin x_1\\ x_2 \\ x_3 \end\right)=\left(\begin 0\\-4\\9\end\right)$. Из этого равенства имеем: $x_1=0$, $x_2=-4$, $x_3=9$.

Ответ: $x_1=0$, $x_2=-4$, $x_3=9$.

Естественно, что решение систем линейных уравнений с помощью обратной матрицы без применения специальных программ вроде Mathcad возможно лишь при сравнительно небольшом количестве переменных. Если СЛАУ содержит четыре и более переменных, то гораздо удобнее в таком случае применить метод Гаусса или метод Гаусса-Жордана.

Заметили ошибку, опечатку, или некорректно отобразилась формула? Отпишите, пожалуйста, об этом в данной теме на форуме (регистрация не требуется).

Читайте также: