算法时间复杂度

04-07 22:241213浏览

定义

在进行算法分析时,语句总的执行次数T(n)时关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。算法的时间复杂度,也就是算法的时间度量,记作:T(n) = O(f(n))。它表示岁问题规模n的增大,称作算法的渐进时间复杂度,简称为时间复杂度。其中f(n)时问题规模n的某个函数。

说了半天就差不多要知道这个东西执行此时==时间

O()来提现算法时间复杂度的记法,称为大O记法

一般情况下,随着输入规模n的增大,T(n)增长最 慢 的算法为最优算法

推导大O阶方法

常数阶:O(1)

线性阶:O(n)

一般含有非嵌套循环涉及线性阶,对应计算次数呈直线增长

int n = 100, sum = 0;
for(int i = 0; i < n; i++)
{
    sum += i;
}

平方阶:O(n^2)

如果n=100,外层执行一次,内层执行100次,所以程序执行了100^2次

int i, j, n = 100;
for (i = 0; i < n; i++)
{
    for (j = 0; j < n; j++)
    {
        printf("hello");
    }
}

但是如果存在

int i, j, n = 100;
for (i = 0; i < n; i++)
{
    for (j = i; j < n; j++)
    {
        printf("hello");
    }
}

他还是O(n^2)
对数阶:O(logn)

0人推荐
共同学习,写下你的评论

2 {{item.nickname}}

{{item.create_time}}

  {{item.zan}}